Modèle

Owl Alpha

Aperçu performance et tarifs depuis les classements mondiaux ; le score composite correspond au tableau des modèles du site.

Données mises à jour :

Version des données : v20260513T085323Z Taille des données : 100

À propos de ce modèle

Owl Alpha occupe la place n°4 de notre classement mondial des modèles. Il est listé comme LLM avec 1.0M ctx et un prix type d’environ $0.00 par 1M tokens. Le tableau compare les offres du même instantané ; l’exemple de code montre une intégration minimale compatible OpenRouter.

Vous pouvez aussi explorer plus de modeles de OpenRouter et voir plus d'options depuis 🇺🇸 United States .

Indicateurs clés

Rang
4
Type
LLM
Indicateur principal
1.0M ctx
1M tokens (moy.)
$0.00
Fournisseur / equipe
OpenRouter
Origine
🇺🇸 United States
Licence
Proprietary
Exigence VRAM
API-managed

Action rapide du Hippo

URL chat completions OpenRouter ; définissez Authorization et le corps selon la doc.

Comparaison des prix (instantané)

Source / agrégateur Prix / 1M tokens
OpenRouter $0.00

Les chiffres viennent du snapshot importe; les prix en direct peuvent changer.

Intégration

OpenRouter expose un point de terminaison Chat Completions compatible OpenAI. Utilisez les onglets pour changer de langage d’exemple. Remplacez l’identifiant du modèle par celui de votre fournisseur si vous routez ailleurs.

// Node.js 18+ — set OPENROUTER_API_KEY in your environment
const res = await fetch('https://openrouter.ai/api/v1/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': `Bearer ${process.env.OPENROUTER_API_KEY}`,
    'Content-Type': 'application/json',
  },
  body: JSON.stringify({
    model: "openrouter/owl-alpha",
    messages: [{ role: 'user', content: 'Hello' }],
  }),
});
const data = await res.json();
console.log(data);

Conservez les clés API dans des variables d’environnement ou un gestionnaire de secrets — ne les commitez jamais dans le dépôt.

Alternative picks

Choisissez un ou deux modèles de plus dans le classement global et utilisez Comparer pour les voir côte à côte.

Exécuter avec Ollama

Collez dans le terminal (installez Ollama d’abord) :