Por solo 1,15 $/hora (facturado mensualmente), obtienes un servidor de IA dedicado completo, no una parte compartida de uno. Tu modelo, tus recursos, tu firewall. Siempre activo.

Infraestructura privada dedicada a la IA

RackNation ofrece ahora una infraestructura privada de IA impulsada por servidores NVIDIA DGX Blackwell, lo que permite a empresas de todos los tamaños acceder a capacidades de inteligencia artificial de nivel empresarial alojadas íntegramente en nuestros centros de datos seguros de Costa Rica.

A diferencia del alquiler de tiempo de GPU de grandes proveedores de nube como AWS, Google Cloud o Azure, donde los costes varían de forma impredecible según el uso y sus datos cruzan fronteras internacionales, la infraestructura de IA dedicada de RackNation ofrece a su organización un entorno de IA privado y siempre activo a un coste mensual predecible que resulta significativamente más económico para cargas de trabajo sostenidas. Sus datos nunca salen de su entorno dedicado, sus modelos se ejecutan exclusivamente para su organización y usted se beneficia de la misma tecnología de GPU NVIDIA Blackwell de vanguardia que utilizan las empresas de IA líderes en el mundo, sin el recargo de la nube. Tanto si está implementando grandes modelos de lenguaje para la gestión interna del conocimiento, la automatización del servicio de atención al cliente, la inteligencia documental o flujos de trabajo de IA personalizados, RackNation le proporciona la infraestructura, la conectividad y la experiencia local para ejecutar una IA seria a una fracción del coste de las alternativas de nube a hiperescala. IA que funciona para usted: privada, potente y con un precio realista.

Especificaciones de los servidores dedicados Nvidia DGX GB10

1 PFLOP de rendimiento de IA: rendimiento de clase de centro de datos

Memoria NVRAM unificada de 128 GB: ejecuta modelos de hasta 200 000 millones de parámetros.

Redes 2x QSFP: dos unidades se agrupan de forma nativa para modelos con parámetros de 405B.

Categoría Especificación
ChipSuperchip NVIDIA GB10 Grace Blackwell
Arquitectura de la GPUNVIDIA Blackwell: núcleos Tensor de 5.ª generación, núcleos RT de 4.ª generación
Núcleos CUDA6,144
Rendimiento de la IA1 PFLOP (FP4 con dispersión) / 1000 TOPS
CPUARM de 20 núcleos (10x Cortex-X925 + 10x Cortex-A725)
Memoria128 GB LPDDR5x unificada (CPU + GPU compartida)
Ancho de banda de memoria273 GB/s
Interfaz de memoria256 bits, 16 canales
Almacenamiento4 TB NVMe M.2 (autocodificado)
Redes1x 10 GbE RJ-45 + 2x QSFP (ConnectX-7 Smart NIC)
Redes de clústeres2x QSFP para interconexión dual Spark
InalámbricoWi-Fi 7 + Bluetooth 5.4
Salida de vídeoHDMI 2.1a, 1x NVENC, 1x NVDEC
USB4 puertos USB tipo C
Tamaño máximo del modelo200B parámetros (único) / 405B parámetros (clúster doble)
Ajuste finoHasta 70 000 millones de parámetros
Consumo de energía240 W (GB10 TDP: 140 W)
Dimensiones150 x 150 x 50,5 mm
Peso1,2 kg (2,6 libras)
Temperatura de funcionamiento5 °C – 30 °C
Sistema operativoDGX OS (basado en Ubuntu)
Marcos de IAPyTorch, TensorRT-LLM, CUDA, Isaac, Metropolis, Holoscan
Modelo Parámetros Cuantización Memoria utilizada Velocidad (tok/seg) Ideal para
Llama 3.18B4 bits~5 GB38 tok/sChat rápido, preguntas y respuestas, tareas sencillas.
Llama 3.18B8 bits~9 GB25 tok/sChat de mayor calidad
Llama 3.170B4 bits~40 GB4,4 tok/sRazonamiento complejo, contexto amplio
DeepSeek R114B4 bits~9 GB20 tok/sRazonamiento avanzado, matemáticas, código
DeepSeek R114B8 bits~15 GB13 tok/sRazonamiento de mayor calidad
DeepSeek R170B4 bits~40 GB~15 tok/sRazonamiento y análisis empresarial
DeepSeek R170B8 bits~75 GB~8 tok/sRazonamiento de máxima calidad
Qwen332B4 bits~20 GB9,4 tok/sMultilingüe, codificación, análisis
Qwen332B8 bits~35 GB6,2 tok/sTareas multilingües de alta calidad
Gemma 312B4 bits~7 GB24 tok/sModelo Google, uso general rápido
Gemma 327B4 bits~16 GB10,8 tok/sModelo de Google de mayor calidad
GPT-OSS20BMXFP4~12 GB58 tok/sModelo abierto de OpenAI, la opción más rápida
GPT-OSS120BMXFP4~70 GB41 tok/sModelo abierto insignia, clase GPT-4
Qwen3 235B (doble chispa)235BMoE de 4 bits~256 GB~23 tok/sFlagship MoE: requiere 2x DGX Spark

Ejecute modelos de IA de última generación en una infraestructura privada dedicada: sin límites, sin colas y con un rendimiento óptimo.

Arquitectura de red de su infraestructura de IA dedicada

Infraestructura privada de IA

Servidor dedicado de IA · Arquitectura de red

DGX Spark · OPNsense · HyperFlex · PostgreSQL + pgvector

RACKNATION · INFRAESTRUCTURA DE IA PRIVADA · TOPOLOGÍA DE RED INTERNET AS52423 · Racknation OPNsense FIREWALL DEDICADO · SEGMENTACIÓN VLAN GB10 NVIDIA DGX Spark 128 GB DE MEMORIA UNIFICADA · 1 PFLOP FP4 · GRACE BLACKWELL HyperFlex POOL DE COMPUTACIÓN EN LA NUBE Cisco HyperFlex · vSphere Centro de datos de Racknation PostgreSQL PostgreSQL + pgvector BÚSQUEDA DE SIMILITUD DE VECTORES WAN · BGP LAN · 10 GbE VLAN 10 GbE VM · vNIC Interno Consultas pgvector RAG · Incrustaciones ● REGLAS DE CORTAFUEGOS · NAT · PASARELA VPN Tráfico AI aislado · Inspección con estado LEYENDA WAN / Internet (BGP) LAN (protegida por cortafuegos) VLAN interna (HyperFlex) VM / Red de almacenamiento pgvector / Ruta de consulta RAG Todo el tráfico de IA fluye a través de OPNsense. DGX aislado en segmento dedicado RACKNATION.CR

NVIDIA DGX Spark se diseñó con un único objetivo: ejecutar grandes modelos de IA a toda velocidad. En combinación con la infraestructura en la nube HyperFlex 2.0 de Racknation, obtendrá lo mejor de ambos mundos: potencia de GPU dedicada para sus modelos y computación en la nube flexible para sus bases de datos PostgreSQL o ChromaDB, interfaces web y lógica de aplicaciones. Una pila privada cohesionada, totalmente bajo su control, alojada en Costa Rica.

El tren de la IA está a punto de partir. No dejes que Big Cloud te venda un billete que no te puedes permitir.