Volver al índice
Modo oscuro
Groq

Groq por Santiago Soñora

Este tutorial está diseñado para guiar a quienes desean aprender más acerca de Groq. Es ideal para un nivel avanzado.

Groq se posiciona como una plataforma líder especializada en la inferencia de modelos de lenguaje grande (LLMs) y otros modelos de inteligencia artificial con una velocidad y una latencia extremadamente bajas. A diferencia de las soluciones basadas en GPUs o TPUs de propósito general, Groq utiliza su propia arquitectura de hardware diseñada específicamente para inferencia de lenguaje: la Language Processing Unit (LPU™). Esta guía avanzada explora la propuesta de valor de Groq centrada en la baja latencia y el alto rendimiento (medido en tokens por segundo y 'Time to First Token' - TTT), los modelos de vanguardia que aloja y optimiza (como LLaMA 3 y Mistral), y cómo interactuar con su API (que a menudo sigue el estándar de la API de OpenAI para facilitar la integración). Cubre aspectos técnicos como la arquitectura de la LPU, las métricas de rendimiento clave, la gestión de API Keys y la monitorización del uso en la GroqCloud™ Console. Es una herramienta fundamental para desarrolladores que buscan integrar capacidades de IA conversacional o generativa en aplicaciones donde la respuesta casi instantánea es crítica para la experiencia del usuario o la eficiencia del workflow.

“Hola, mundo” en Groq

El 'Hola, mundo' de Groq: un script básico en Python que utiliza la API de Groq (con endpoint compatible con OpenAI) para hacer una petición de Chat Completion a un modelo LLaMA 3 y obtener una respuesta de ultra baja latencia.

📋 Copiar
# 1. Regístrate en https://console.groq.com/signup y obtén tu API Key.
# 2. Instala la librería requests: pip install requests
# 3. Configura tu API Key de Groq de forma segura (recomendado via variable de entorno)
#    En Linux/macOS: export GROQ_API_KEY='TU_API_KEY'
#    En Windows: set GROQ_API_KEY='TU_API_KEY'
# 4. Ejecuta el siguiente script:

import os
import requests

groq_api_key = os.getenv("GROQ_API_KEY")

if not groq_api_key:
    print("Error: La variable de entorno GROQ_API_KEY no esta configurada.")
else:
    url = "https://api.groq.com/openai/v1/chat/completions"
    headers = {
        "Content-Type": "application/json",
        "Authorization": f"Bearer {groq_api_key}"
    }
    data = {
        "model": "llama3-70b-8192", # O un modelo diferente soportado por Groq, ej: "mixtral-8x7b-32768"
        "messages": [
            {"role": "user", "content": "¿Quién fue Alan Turing?"}
        ]
    }

    try:
        response = requests.post(url, json=data, headers=headers)
        response.raise_for_status() # Lanza una excepcion para errores HTTP
        print(response.json()['choices'][0]['message']['content'])

    except requests.exceptions.RequestException as e:
        print(f"Ocurrio un error en la peticion HTTP: {e}")
    except KeyError:
        print("Error al procesar la respuesta JSON de la API.")

Resultado:

Output
El modelo LLaMA 3 alojado en GroqCloud devuelve una respuesta sobre Alan Turing con latencia extremadamente baja. (El contenido exacto de la respuesta puede variar).

Comandos básicos

Familiarizarse con estos comandos es esencial para interactuar eficientemente con Groq:

Conceptos Clave

Comprender estos conceptos fundamentales te ayudará a dominar Groq de forma más organizada y eficiente:

Casos de uso

Algunos ejemplos de aplicaciones prácticas donde se utiliza Groq:

Consejos para Principiantes

Aquí tienes algunas recomendaciones para facilitar tus inicios en Groq:

Herramientas relacionadas

Si te interesa Groq, también podrías explorar estas herramientas:

Recursos útiles

Amplía tus conocimientos con estos enlaces y materiales: