Por solo 1,15 $/hora (facturado mensualmente), obtienes un servidor de IA dedicado completo, no una parte compartida de uno. Tu modelo, tus recursos, tu firewall. Siempre activo.
Infraestructura privada dedicada a la IA
RackNation ofrece ahora una infraestructura privada de IA impulsada por servidores NVIDIA DGX Blackwell, lo que permite a empresas de todos los tamaños acceder a capacidades de inteligencia artificial de nivel empresarial alojadas íntegramente en nuestros centros de datos seguros de Costa Rica.
A diferencia del alquiler de tiempo de GPU de grandes proveedores de nube como AWS, Google Cloud o Azure, donde los costes varían de forma impredecible según el uso y sus datos cruzan fronteras internacionales, la infraestructura de IA dedicada de RackNation ofrece a su organización un entorno de IA privado y siempre activo a un coste mensual predecible que resulta significativamente más económico para cargas de trabajo sostenidas. Sus datos nunca salen de su entorno dedicado, sus modelos se ejecutan exclusivamente para su organización y usted se beneficia de la misma tecnología de GPU NVIDIA Blackwell de vanguardia que utilizan las empresas de IA líderes en el mundo, sin el recargo de la nube. Tanto si está implementando grandes modelos de lenguaje para la gestión interna del conocimiento, la automatización del servicio de atención al cliente, la inteligencia documental o flujos de trabajo de IA personalizados, RackNation le proporciona la infraestructura, la conectividad y la experiencia local para ejecutar una IA seria a una fracción del coste de las alternativas de nube a hiperescala. IA que funciona para usted: privada, potente y con un precio realista.
Especificaciones de los servidores dedicados Nvidia DGX GB10
1 PFLOP de rendimiento de IA: rendimiento de clase de centro de datos
Memoria NVRAM unificada de 128 GB: ejecuta modelos de hasta 200 000 millones de parámetros.
Redes 2x QSFP: dos unidades se agrupan de forma nativa para modelos con parámetros de 405B.
| Categoría | Especificación |
|---|---|
| Chip | Superchip NVIDIA GB10 Grace Blackwell |
| Arquitectura de la GPU | NVIDIA Blackwell: núcleos Tensor de 5.ª generación, núcleos RT de 4.ª generación |
| Núcleos CUDA | 6,144 |
| Rendimiento de la IA | 1 PFLOP (FP4 con dispersión) / 1000 TOPS |
| CPU | ARM de 20 núcleos (10x Cortex-X925 + 10x Cortex-A725) |
| Memoria | 128 GB LPDDR5x unificada (CPU + GPU compartida) |
| Ancho de banda de memoria | 273 GB/s |
| Interfaz de memoria | 256 bits, 16 canales |
| Almacenamiento | 4 TB NVMe M.2 (autocodificado) |
| Redes | 1x 10 GbE RJ-45 + 2x QSFP (ConnectX-7 Smart NIC) |
| Redes de clústeres | 2x QSFP para interconexión dual Spark |
| Inalámbrico | Wi-Fi 7 + Bluetooth 5.4 |
| Salida de vídeo | HDMI 2.1a, 1x NVENC, 1x NVDEC |
| USB | 4 puertos USB tipo C |
| Tamaño máximo del modelo | 200B parámetros (único) / 405B parámetros (clúster doble) |
| Ajuste fino | Hasta 70 000 millones de parámetros |
| Consumo de energía | 240 W (GB10 TDP: 140 W) |
| Dimensiones | 150 x 150 x 50,5 mm |
| Peso | 1,2 kg (2,6 libras) |
| Temperatura de funcionamiento | 5 °C – 30 °C |
| Sistema operativo | DGX OS (basado en Ubuntu) |
| Marcos de IA | PyTorch, TensorRT-LLM, CUDA, Isaac, Metropolis, Holoscan |
| Modelo | Parámetros | Cuantización | Memoria utilizada | Velocidad (tok/seg) | Ideal para |
|---|---|---|---|---|---|
| Llama 3.1 | 8B | 4 bits | ~5 GB | 38 tok/s | Chat rápido, preguntas y respuestas, tareas sencillas. |
| Llama 3.1 | 8B | 8 bits | ~9 GB | 25 tok/s | Chat de mayor calidad |
| Llama 3.1 | 70B | 4 bits | ~40 GB | 4,4 tok/s | Razonamiento complejo, contexto amplio |
| DeepSeek R1 | 14B | 4 bits | ~9 GB | 20 tok/s | Razonamiento avanzado, matemáticas, código |
| DeepSeek R1 | 14B | 8 bits | ~15 GB | 13 tok/s | Razonamiento de mayor calidad |
| DeepSeek R1 | 70B | 4 bits | ~40 GB | ~15 tok/s | Razonamiento y análisis empresarial |
| DeepSeek R1 | 70B | 8 bits | ~75 GB | ~8 tok/s | Razonamiento de máxima calidad |
| Qwen3 | 32B | 4 bits | ~20 GB | 9,4 tok/s | Multilingüe, codificación, análisis |
| Qwen3 | 32B | 8 bits | ~35 GB | 6,2 tok/s | Tareas multilingües de alta calidad |
| Gemma 3 | 12B | 4 bits | ~7 GB | 24 tok/s | Modelo Google, uso general rápido |
| Gemma 3 | 27B | 4 bits | ~16 GB | 10,8 tok/s | Modelo de Google de mayor calidad |
| GPT-OSS | 20B | MXFP4 | ~12 GB | 58 tok/s | Modelo abierto de OpenAI, la opción más rápida |
| GPT-OSS | 120B | MXFP4 | ~70 GB | 41 tok/s | Modelo abierto insignia, clase GPT-4 |
| Qwen3 235B (doble chispa) | 235B | MoE de 4 bits | ~256 GB | ~23 tok/s | Flagship MoE: requiere 2x DGX Spark |
Ejecute modelos de IA de última generación en una infraestructura privada dedicada: sin límites, sin colas y con un rendimiento óptimo.
Arquitectura de red de su infraestructura de IA dedicada
Servidor dedicado de IA · Arquitectura de red
DGX Spark · OPNsense · HyperFlex · PostgreSQL + pgvector
NVIDIA DGX Spark se diseñó con un único objetivo: ejecutar grandes modelos de IA a toda velocidad. En combinación con la infraestructura en la nube HyperFlex 2.0 de Racknation, obtendrá lo mejor de ambos mundos: potencia de GPU dedicada para sus modelos y computación en la nube flexible para sus bases de datos PostgreSQL o ChromaDB, interfaces web y lógica de aplicaciones. Una pila privada cohesionada, totalmente bajo su control, alojada en Costa Rica.
El tren de la IA está a punto de partir. No dejes que Big Cloud te venda un billete que no te puedes permitir.