Modelo
MythoMax 13B
Resumen de rendimiento y precios desde el ranking global; la puntuación compuesta coincide con la tabla de modelos del sitio.
Datos actualizados:
Versión de datos: v20260430T083453Z Tamaño de datos: 100
Sobre este modelo
MythoMax 13B ocupa el puesto #59 en nuestro ranking global de modelos. Figura como LLM con 4.1k ctx y un precio típico en el snapshot de unos $0.06 por 1M tokens. La tabla compara cotizaciones de proveedores del mismo snapshot; el código muestra una integración mínima compatible con OpenRouter.
Tambien puedes explorar mas modelos de Gryphe y ver mas opciones de Desconocido .
Métricas clave
- Puesto
- 59
- Tipo
- LLM
- Métrica principal
- 4.1k ctx
- 1M tokens (media)
- $0.06
- Proveedor / equipo
- Gryphe
- Origen
- Desconocido
- Licencia
- Desconocido
- Requisito de VRAM
- —
Acción rápida Hippo
URL de Chat Completions de OpenRouter; cabecera Authorization y cuerpo según la documentación.
Calculadora de precio
Coste mensual estimado (USD): —
Comparación de precios (instantánea)
| Fuente / agregador | Precio / 1M tokens | Latencia |
|---|---|---|
| OpenRouter | $0.06 | — |
Cifras del snapshot importado del ranking; los precios y la latencia en vivo pueden variar.
Precios de tokens por proveedor
Compara los precios por token de este modelo entre proveedores disponibles.
| Proveedor | Entrada / 1M tokens | Salida / 1M tokens | Estado | Precio actualizado |
|---|---|---|---|---|
| OpenRouter | $0.06 | $0.06 | Verificado | 2026-04-30T08:36:20.552Z |
| OpenAI | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Azure OpenAI | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Groq | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Fireworks | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Together | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
Los precios provienen del dataset de comparación de tokens y pueden cambiar entre snapshots.
Cómo integrar
OpenRouter ofrece un endpoint Chat Completions compatible con OpenAI. Usa las pestañas para cambiar el lenguaje de ejemplo. Sustituye el id del modelo por el de tu proveedor si enrutas a otro sitio.
// Node.js 18+ — set OPENROUTER_API_KEY in your environment
const res = await fetch('https://openrouter.ai/api/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': `Bearer ${process.env.OPENROUTER_API_KEY}`,
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: "gryphe/mythomax-l2-13b",
messages: [{ role: 'user', content: 'Hello' }],
}),
});
const data = await res.json();
console.log(data);# pip install requests
import json
import os
import requests
payload = {
"model": "gryphe/mythomax-l2-13b",
"messages": [{"role": "user", "content": "Hello"}],
}
resp = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={
"Authorization": f"Bearer {os.environ['OPENROUTER_API_KEY']}",
"Content-Type": "application/json",
},
data=json.dumps(payload),
)
resp.raise_for_status()
print(resp.json())package main
import (
"bytes"
"encoding/json"
"fmt"
"io"
"net/http"
"os"
)
func main() {
key := os.Getenv("OPENROUTER_API_KEY")
payload := map[string]any{
"model": "gryphe/mythomax-l2-13b",
"messages": []map[string]string{{"role": "user", "content": "Hello"}},
}
b, err := json.Marshal(payload)
if err != nil {
panic(err)
}
req, err := http.NewRequest(http.MethodPost, "https://openrouter.ai/api/v1/chat/completions", bytes.NewReader(b))
if err != nil {
panic(err)
}
req.Header.Set("Authorization", "Bearer "+key)
req.Header.Set("Content-Type", "application/json")
res, err := http.DefaultClient.Do(req)
if err != nil {
panic(err)
}
defer res.Body.Close()
out, err := io.ReadAll(res.Body)
if err != nil {
panic(err)
}
fmt.Println(string(out))
}import java.net.URI;
import java.net.http.HttpClient;
import java.net.http.HttpRequest;
import java.net.http.HttpResponse;
public class OpenRouterChat {
public static void main(String[] args) throws Exception {
String key = System.getenv("OPENROUTER_API_KEY");
String body = "{\"model\":\"gryphe/mythomax-l2-13b\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}";
HttpRequest req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", "Bearer " + key)
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build();
HttpResponse<String> res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString());
System.out.println(res.body());
}
}import java.net.URI
import java.net.http.HttpClient
import java.net.http.HttpRequest
import java.net.http.HttpResponse
fun main() {
val key = System.getenv("OPENROUTER_API_KEY") ?: error("OPENROUTER_API_KEY")
val body = "{\"model\":\"gryphe/mythomax-l2-13b\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}"
val req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", "Bearer $key")
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build()
val res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString())
println(res.body())
}// Cargo.toml: serde_json = "1", ureq = "2"
use serde_json::json;
fn main() -> Result<(), Box<dyn std::error::Error>> {
let key = std::env::var("OPENROUTER_API_KEY")?;
let model = "gryphe/mythomax-l2-13b";
let body = json!({
"model": model,
"messages": [{"role": "user", "content": "Hello"}]
});
let resp = ureq::post("https://openrouter.ai/api/v1/chat/completions")
.set("Authorization", &format!("Bearer {}", key))
.set("Content-Type", "application/json")
.send_string(&body.to_string())?;
println!("{}", resp.into_string()?);
Ok(())
}import java.net.URI
import java.net.http.{HttpClient, HttpRequest, HttpResponse}
@main def run(): Unit =
val key = sys.env.getOrElse("OPENROUTER_API_KEY", throw new RuntimeException("OPENROUTER_API_KEY"))
val body = "{\"model\":\"gryphe/mythomax-l2-13b\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}"
val req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", s"Bearer $key")
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build()
val res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString())
println(res.body())
}# macOS/Linux — set OPENROUTER_API_KEY in your environment
curl -sS 'https://openrouter.ai/api/v1/chat/completions' \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"gryphe/mythomax-l2-13b","messages":[{"role":"user","content":"Hello"}]}'Guarda las claves API en variables de entorno o un gestor de secretos; no las subas al repositorio.
Alternative picks
-
DeepSeek: DeepSeek V4 Flash
Compare now -
Writer: Palmyra X5
Compare now -
inclusionAI: Ling-2.6-1T (free)
Compare now
Elige uno o dos modelos más en el ranking global y usa Comparar para verlos lado a lado.