Modelo
Perplexity: Sonar Deep Research
Instantánea del catálogo de OpenRouter. Aunque este modelo no esté en el ranking global actual, se puede consultar en el sitio.
Datos actualizados:
Versión de datos: v20260430T083453Z Tamaño de datos: 100
Este modelo proviene de la instantánea del catálogo y puede que aún no esté incluido en el ranking más reciente.
Sobre este modelo
Perplexity: Sonar Deep Research aparece en el catálogo como modelo LLM, con métrica principal 128,000 ctx y un precio promedio de instantánea de $5.00 por 1M de tokens. Los datos de abajo se generan desde la última instantánea del catálogo; si existe id de OpenRouter, también mostramos ejemplos de integración.
Tambien puedes explorar mas modelos de Perplexity y ver mas opciones de 🇺🇸 United States .
Métricas clave
- Puesto
- Sin ranking
- Tipo
- LLM
- Métrica principal
- 128,000 ctx
- 1M tokens (media)
- $5.00
- Proveedor / equipo
- Perplexity
- Origen
- 🇺🇸 United States
- Licencia
- Proprietary
- Requisito de VRAM
- API-managed
Acción rápida Hippo
URL de Chat Completions de OpenRouter; cabecera Authorization y cuerpo según la documentación.
Calculadora de precio
Coste mensual estimado (USD): —
Comparación de precios (instantánea)
| Fuente / agregador | Precio / 1M tokens | Latencia |
|---|---|---|
| Media del snapshot (tabla) | $5.00 | — |
Cifras del snapshot importado del ranking; los precios y la latencia en vivo pueden variar.
Precios de tokens por proveedor
Compara los precios por token de este modelo entre proveedores disponibles.
| Proveedor | Entrada / 1M tokens | Salida / 1M tokens | Estado | Precio actualizado |
|---|---|---|---|---|
| OpenRouter | $2.00 | $8.00 | Verificado | 2026-04-30T08:36:20.568Z |
| OpenAI | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Azure OpenAI | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Groq | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Fireworks | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
| Together | $0.16 | $0.97 | Snapshot | 2026-04-29T05:13:01.370Z |
Los precios provienen del dataset de comparación de tokens y pueden cambiar entre snapshots.
Cómo integrar
OpenRouter ofrece un endpoint Chat Completions compatible con OpenAI. Usa las pestañas para cambiar el lenguaje de ejemplo. Sustituye el id del modelo por el de tu proveedor si enrutas a otro sitio.
// Node.js 18+ — set OPENROUTER_API_KEY in your environment
const res = await fetch('https://openrouter.ai/api/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': `Bearer ${process.env.OPENROUTER_API_KEY}`,
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: "perplexity/sonar-deep-research",
messages: [{ role: 'user', content: 'Hello' }],
}),
});
const data = await res.json();
console.log(data);# pip install requests
import json
import os
import requests
payload = {
"model": "perplexity/sonar-deep-research",
"messages": [{"role": "user", "content": "Hello"}],
}
resp = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={
"Authorization": f"Bearer {os.environ['OPENROUTER_API_KEY']}",
"Content-Type": "application/json",
},
data=json.dumps(payload),
)
resp.raise_for_status()
print(resp.json())package main
import (
"bytes"
"encoding/json"
"fmt"
"io"
"net/http"
"os"
)
func main() {
key := os.Getenv("OPENROUTER_API_KEY")
payload := map[string]any{
"model": "perplexity/sonar-deep-research",
"messages": []map[string]string{{"role": "user", "content": "Hello"}},
}
b, err := json.Marshal(payload)
if err != nil {
panic(err)
}
req, err := http.NewRequest(http.MethodPost, "https://openrouter.ai/api/v1/chat/completions", bytes.NewReader(b))
if err != nil {
panic(err)
}
req.Header.Set("Authorization", "Bearer "+key)
req.Header.Set("Content-Type", "application/json")
res, err := http.DefaultClient.Do(req)
if err != nil {
panic(err)
}
defer res.Body.Close()
out, err := io.ReadAll(res.Body)
if err != nil {
panic(err)
}
fmt.Println(string(out))
}import java.net.URI;
import java.net.http.HttpClient;
import java.net.http.HttpRequest;
import java.net.http.HttpResponse;
public class OpenRouterChat {
public static void main(String[] args) throws Exception {
String key = System.getenv("OPENROUTER_API_KEY");
String body = "{\"model\":\"perplexity/sonar-deep-research\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}";
HttpRequest req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", "Bearer " + key)
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build();
HttpResponse<String> res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString());
System.out.println(res.body());
}
}import java.net.URI
import java.net.http.HttpClient
import java.net.http.HttpRequest
import java.net.http.HttpResponse
fun main() {
val key = System.getenv("OPENROUTER_API_KEY") ?: error("OPENROUTER_API_KEY")
val body = "{\"model\":\"perplexity/sonar-deep-research\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}"
val req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", "Bearer $key")
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build()
val res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString())
println(res.body())
}// Cargo.toml: serde_json = "1", ureq = "2"
use serde_json::json;
fn main() -> Result<(), Box<dyn std::error::Error>> {
let key = std::env::var("OPENROUTER_API_KEY")?;
let model = "perplexity/sonar-deep-research";
let body = json!({
"model": model,
"messages": [{"role": "user", "content": "Hello"}]
});
let resp = ureq::post("https://openrouter.ai/api/v1/chat/completions")
.set("Authorization", &format!("Bearer {}", key))
.set("Content-Type", "application/json")
.send_string(&body.to_string())?;
println!("{}", resp.into_string()?);
Ok(())
}import java.net.URI
import java.net.http.{HttpClient, HttpRequest, HttpResponse}
@main def run(): Unit =
val key = sys.env.getOrElse("OPENROUTER_API_KEY", throw new RuntimeException("OPENROUTER_API_KEY"))
val body = "{\"model\":\"perplexity/sonar-deep-research\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello\"}]}"
val req = HttpRequest.newBuilder()
.uri(URI.create("https://openrouter.ai/api/v1/chat/completions"))
.header("Authorization", s"Bearer $key")
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build()
val res = HttpClient.newHttpClient().send(req, HttpResponse.BodyHandlers.ofString())
println(res.body())
}# macOS/Linux — set OPENROUTER_API_KEY in your environment
curl -sS 'https://openrouter.ai/api/v1/chat/completions' \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model":"perplexity/sonar-deep-research","messages":[{"role":"user","content":"Hello"}]}'Guarda las claves API en variables de entorno o un gestor de secretos; no las subas al repositorio.
Alternative picks
-
DeepSeek: DeepSeek V4 Flash
Compare now -
Writer: Palmyra X5
Compare now -
inclusionAI: Ling-2.6-1T (free)
Compare now
Elige uno o dos modelos más en el ranking global y usa Comparar para verlos lado a lado.