sizing

¿Cómo dimensionar un servidor para 100 usuarios?

Equipo Editorial SCRAM Consulting · Actualizado: 2 de mayo de 2026

Respuesta directa

No existe una respuesta única para "servidor para 100 usuarios": el dimensionamiento depende totalmente del workload. Para 100 usuarios típicos de oficina, las cargas más comunes son file/print + Active Directory (necesita 4-8 cores, 16-32 GB RAM, ~2 TB de storage), ERP/contabilidad (8-16 cores, 32-64 GB RAM, IOPS bajos a medios), o servidor de virtualización con 5-15 VMs (16-32 cores, 128-256 GB RAM, NVMe). La regla práctica: dimensionar al pico esperado más 30-50% de margen, planear refresh a 5 años considerando crecimiento, y siempre verificar con el fabricante de tu software empresarial qué specs valida formalmente para tu caso.

Resumen rápido

  • No hay respuesta única — depende del workload (file/print, ERP, virtualización, AD/correo)
  • Regla práctica: dimensionar al pico esperado + 30-50% de margen para crecimiento a 5 años
  • CPU se mide en cores y velocidad — la mayoría de workloads empresariales necesitan 8-16 cores
  • RAM y storage suelen ser los cuellos de botella reales — sobreaprovisionar conservador
  • Verifica con el fabricante de tu software (ERP, base de datos) qué specs valida formalmente

Por qué "100 usuarios" no es una spec

El error más común al dimensionar es pensar en "número de usuarios" como variable única. Cien usuarios usando solo correo y archivos compartidos tienen demanda muy distinta de cien usuarios consultando ERP transaccional con base de datos de 500 GB. El dimensionamiento correcto exige primero definir el workload — qué hace el servidor — antes de calcular CPU, RAM o storage.

Los 4 perfiles típicos para empresas con ~100 usuarios

Perfil 1: Servidor de archivos + impresión + Active Directory

El caso más común para PYMEs. El servidor maneja autenticación, archivos compartidos, colas de impresión y servicios DNS/DHCP.

  • CPU: 4-8 cores físicos (Intel Xeon Bronze/Silver o AMD EPYC entry)
  • RAM: 16-32 GB
  • Storage: 2-4 TB en RAID 5 o RAID 10. Mix SSD para sistema operativo (240-480 GB) + HDD para datos
  • IOPS: bajos. SSD para SO suficiente
  • Red: 2 puertos 1 Gbps o 1 puerto 10 Gbps si tienes switch capable

Perfil 2: Servidor de ERP/contabilidad (small to mid)

Sistemas como SAP Business One, Microsoft Dynamics SMB, Aspel, Contpaq, Odoo. Base de datos transaccional con consultas típicas de oficina.

  • CPU: 8-16 cores físicos con clock alto (Intel Xeon Silver/Gold, AMD EPYC mid). Sí, importa el clock — bases de datos tradicionales no escalan linealmente con cores
  • RAM: 32-64 GB. La base de datos quiere caché grande
  • Storage: 1-2 TB NVMe en RAID 1 (mirror) o RAID 10. NVMe es no negociable para base de datos transaccional moderna
  • IOPS: medios-altos. Verifica el SLA del fabricante del ERP — algunos requieren mínimos específicos
  • Red: 10 Gbps recomendado

Perfil 3: Servidor de virtualización (host VMware/Hyper-V con 5-15 VMs)

Consolidación: en lugar de 5 servidores físicos, uno con 5 VMs corriendo cada workload. Modelo dominante en PYMEs modernas.

  • CPU: 16-32 cores físicos con hyperthreading. Considera al menos 1 core físico por VM crítica más 2 cores para el hipervisor
  • RAM: 128-256 GB. Memoria es el recurso que más limita densidad de VMs típicamente
  • Storage: 4-8 TB NVMe RAID 10 o storage compartido (SAN/NAS) con 10 Gbps. Para producción, shared storage habilita HA real
  • IOPS: altos. Suma demanda de todas las VMs
  • Red: 2x 10 Gbps (uno para gestión/VM traffic, otro para storage)

Perfil 4: Servidor de correo + colaboración (Exchange On-Premise)

Cada vez menos común con migración a Microsoft 365 / Google Workspace, pero existe en sectores regulados.

  • CPU: 8-16 cores físicos
  • RAM: 64-128 GB (Exchange consume RAM agresivamente)
  • Storage: 4-10 TB. Casillas típicas + archivado. Mezcla SSD para BBDD activas + HDD para archivado
  • IOPS: medios. Pico durante respaldos y migraciones
  • Red: 10 Gbps

Cómo calcular dimensionamiento real

CPU

Estimar carga base por usuario en el workload. Para oficina típica, 0.05-0.1 cores virtuales por usuario activo simultáneo en horas pico es referencia. Para 100 usuarios, eso significa 5-10 vCPU base + overhead del sistema operativo + servicios + headroom para picos = típicamente 8-16 cores físicos con hyperthreading.

RAM

RAM base del sistema operativo (4-8 GB Windows Server / Linux) + RAM por aplicación (varía masivamente: SQL Server quiere 25%+ del DB size, Exchange quiere 4-8 GB por mil mailboxes activos) + overhead. Sobreaprovisionar conservador es siempre mejor: agregar RAM después de la compra es relativamente fácil, pero descubrir que faltó RAM después de migrar producción es doloroso.

Storage

Capacidad bruta + 30-40% para crecimiento + overhead de RAID. Para 100 usuarios con archivos típicos de oficina, considera 20-50 GB por usuario para datos personales/compartidos. ERP suele empezar en 50-200 GB y crecer 30-50% al año. Para virtualización, suma capacidad de cada VM más overhead del hipervisor (10-15%).

IOPS y latencia

El parámetro más subestimado. SSD/NVMe modernos entregan 50K-1M IOPS según calidad. HDD entrega 100-200 IOPS por disco. Para base de datos transaccional, IOPS bajos = aplicación lenta sin importar cuántos cores tengas. Para producción crítica, NVMe siempre.

Errores frecuentes al dimensionar

  • Comparar solo specs de CPU/RAM: ignorar IOPS de storage es el error más caro. Un servidor con 32 cores y 128 GB pero discos lentos da peor rendimiento que uno con 16 cores, 64 GB y NVMe
  • No considerar crecimiento: dimensionar al pico actual sin margen lleva a refresh forzado en 2-3 años en lugar de 5
  • Ignorar overhead del hipervisor: en virtualización, reservar 10-15% de CPU y RAM para el hipervisor
  • No verificar con el fabricante del software: ERPs y bases de datos tienen requisitos formales — instalar fuera de spec puede invalidar soporte del fabricante
  • Sobre-aprovisionar masivamente: el opuesto también existe — comprar servidor para 500 usuarios cuando esperas 100 es desperdicio que se nota a los 5 años cuando refresh llega y nunca lo aprovechaste

En resumen

Dimensionar servidor para 100 usuarios depende del workload. Para file/print + AD: 4-8 cores, 16-32 GB RAM, 2-4 TB storage. Para ERP/base de datos: 8-16 cores, 32-64 GB RAM, NVMe obligatorio. Para virtualización con 5-15 VMs: 16-32 cores, 128-256 GB RAM, NVMe RAID 10 o storage compartido. Para Exchange On-Premise: 8-16 cores, 64-128 GB RAM.

Reglas no negociables: dimensionar al pico esperado + 30-50% de margen, NVMe para producción transaccional, verificar specs formales con el fabricante de tu software, considerar refresh a 5 años. Y la regla maestra: antes de comprar, valida el dimensionamiento con tu integrador o un ingeniero certificado en el stack que vas a operar — el costo de equivocarse en dimensionamiento es mucho mayor que el costo de la consultoría inicial.

Preguntas frecuentes

¿Conviene un servidor más grande para "estar tranquilos" o ajustarse?

Sobreaprovisionar 30-50% para crecimiento es razonable; sobreaprovisionar 200-300% es desperdicio. La regla: dimensiona al pico esperado en horizonte de 3 años (no del día uno), agrega margen para crecimiento y picos imprevistos, verifica que el modelo elegido permita ampliar RAM y storage en sitio sin reemplazar el servidor entero. La capacidad de crecer es más valiosa que comprar capacidad ociosa.

¿Necesito redundancia (RAID, fuentes redundantes, etc.)?

Para producción empresarial, sí: RAID 1, 10 o 5 (no RAID 0), fuentes redundantes hot-swap, y al menos 2 NICs en bonding. Sin redundancia, una falla puntual te tira la operación. El costo adicional de redundancia es bajo (~10-15%) comparado con el costo de downtime cuando falla un componente único.

¿Mejor un servidor grande o varios chicos?

Varios chicos te dan resilencia (si uno falla, los otros siguen) y permiten distribuir workloads. Uno grande es más eficiente en costo unitario y consumo eléctrico. Para PYMEs con 100 usuarios, 2 servidores medianos con virtualización y HA suele ser óptimo: balance entre redundancia, eficiencia y simplicidad operativa.

¿Cómo sé si necesito SAN o storage local?

Storage local (SSD/NVMe internos del servidor) es más simple y barato; suficiente para uno o dos servidores con poca necesidad de migración entre hosts. SAN o NAS compartido permite HA real (si un host falla, sus VMs se levantan en otro), pero agrega costo y complejidad. Para entornos de 3+ servidores virtualizados con criticidad alta, shared storage justifica la inversión.

¿Cuánto debe durar un servidor empresarial bien dimensionado?

Físicamente, 7-10 años en datacenter con buenas condiciones. Funcionalmente, 5-6 años antes de quedar obsoleto vs nuevas generaciones de hipervisores y workloads. Si dimensionas con 30-50% de margen, los 5 años son cómodos. Si dimensionas justo o con poco margen, te quedará chico antes y refresh forzado en 3-4 años.

27 años manteniendo en operación a las empresas que no pueden permitirse parar.

Grupo Modelo, FEMSA, Bayer, Chedraui y Hertz confían en SCRAM. ¿Hablamos de tu proyecto?

Solicitar asesoría