Quickstart
TEEra es una API compatible con OpenAI que te permite usar modelos LLM open source en enclaves seguros (TEE). Tus prompts y respuestas nunca se almacenan en texto plano.
Conecta en 30 segundos
Usa tu API key con Roo Code, Cline, OpenCode o cualquier cliente OpenAI Compatible. Solo necesitas la Base URL, tu API Key y el Model ID.
📋 Configuración rápida
Autenticación
Todas las requests deben incluir tu API key en el header Authorization como Bearer token.
🔑 Obtén tu API Key
Regístrate en teera.io/register y encuentra tu API key en el dashboard. Cada usuario tiene una clave única en formato hex.
Modelos disponibles
Modelos open source ejecutados en Trusted Execution Environments. Tus prompts permanecen cifrados en hardware dedicado. Usa auto para que TEEra seleccione el modelo más rápido disponible.
| Modelo | Model ID | Velocidad | Input $/M | Output $/M |
|---|---|---|---|---|
| Auto TEE | auto | — | — | — |
| DeepSeek V3 TEE | deepseek-ai/DeepSeek-V3-0324-TEE | Media | $0.25 | $1.00 |
| DeepSeek V3.2 TEE | deepseek-ai/DeepSeek-V3.2-TEE | Media | $0.28 | $0.42 |
| DeepSeek R1 TEE | deepseek-ai/DeepSeek-R1-0528-TEE | Lenta | $0.45 | $2.15 |
| Kimi K2.5 TEE | moonshotai/Kimi-K2.5-TEE | Lenta | $0.45 | $2.20 |
| Qwen3 Coder TEE | Qwen/Qwen3-Coder-Next-TEE | Media | $0.12 | $0.75 |
| Qwen3 32B TEE | Qwen/Qwen3-32B-TEE | Rápida | $0.08 | $0.24 |
| GPT-OSS 120B TEE | openai/gpt-oss-120b-TEE | Media | $0.05 | $0.45 |
| GLM 4.7 TEE | zai-org/GLM-4.7-TEE | Media | $0.39 | $1.75 |
| GLM 5 TEE | zai-org/GLM-5-TEE | Rápida | $0.95 | $3.15 |
| GLM 5.1 TEE | zai-org/GLM-5.1-TEE | Rápida | $0.95 | $3.15 |
| Qwen3.5 397B TEE | Qwen/Qwen3.5-397B-A17B-TEE | Media | $0.30 | $1.50 |
| Hermes 4 405B TEE | NousResearch/Hermes-4-405B-FP8-TEE | Lenta | $0.50 | $2.00 |
Listar modelos vía API
Obtén la lista actualizada de modelos disponibles:
Endpoint principal
Compatible con el formato de OpenAI. Envía mensajes en formato messages y recibe la respuesta del modelo. Soporta streaming con "stream": true.
✅ Compatible con OpenAI SDK
Si ya usas el SDK de OpenAI, solo cambia la base_url y la api_key. Todo lo demás funciona igual.
Roo Code
Roo Code es una extensión de VS Code que te permite programar con IA directamente en tu editor. Sigue estos pasos para conectarlo con TEEra.
Instala VS Code
Descarga Visual Studio Code si aún no lo tienes.
Instala la extensión Roo Code
Busca "Roo Code" en el marketplace de extensiones de VS Code e instálala.
Selecciona OpenAI Compatible
Abre Roo Code, haz clic en el ícono de configuración y selecciona "OpenAI Compatible" como proveedor.
Configura los campos
Copia los siguientes valores en la configuración de Roo Code:
Configuración alternativa (settings.json)
También puedes configurar Roo Code directamente en tu settings.json:
Cline
Cline es otra extensión popular de VS Code para programar con IA. La configuración con TEEra es igual de simple.
Instala VS Code
Descarga Visual Studio Code si aún no lo tienes.
Instala la extensión Cline
Busca "Cline" en el marketplace de extensiones de VS Code e instálala.
Selecciona OpenAI Compatible
Abre Cline, haz clic en el ícono de configuración y selecciona "OpenAI Compatible" como proveedor.
Configura los campos
Copia los siguientes valores en la configuración de Cline:
Configuración alternativa (settings.json)
También puedes configurar Cline directamente en tu settings.json:
OpenCode
OpenCode es un agente de coding en terminal. Ligero, rápido, y funciona directo desde la línea de comandos.
Instala OpenCode
Sigue las instrucciones en github.com/opencode-ai/opencode.
Configura el proveedor
Edita tu archivo de configuración opencode.json o usa variables de entorno:
Variables de entorno
cURL
Usa cURL para probar la API directamente desde tu terminal. Ejemplo completo con streaming y sin streaming:
Ejemplo con Python (OpenAI SDK)
Ejemplo con Node.js (OpenAI SDK)
Request Body
El endpoint POST /v1/chat/completions acepta los siguientes parámetros en formato JSON:
| Parámetro | Tipo | Requerido | Descripción |
|---|---|---|---|
model |
string | Sí | ID del modelo. Ver lista de modelos. |
messages |
array | Sí | Array de mensajes con role y content. |
temperature |
number | No | 0–2. Controla aleatoriedad. Default: 1. |
max_tokens |
integer | No | Máximo de tokens en la respuesta. |
stream |
boolean | No | Activar streaming SSE. Default: false. |
top_p |
number | No | Nucleus sampling. Default: 1. |
stop |
string/array | No | Secuencias de parada. |
Formato de messages
Response
La respuesta sigue el formato estándar de OpenAI:
Streaming (SSE)
Con "stream": true, la respuesta llega como eventos SSE:
Códigos de error
La API retorna errores estándar HTTP:
| Código | Significado | Solución |
|---|---|---|
401 |
API key inválida o faltante | Verifica tu API key en el dashboard |
402 |
Créditos insuficientes | Recarga créditos desde tu cuenta |
429 |
Rate limit excedido | Espera unos segundos y reintenta |
500 |
Error interno del servidor | Reintenta en unos momentos |
503 |
Modelo no disponible | Intenta con otro modelo o usa auto |