Resumen:

  • Open‑weight de OpenAI: 120B y 20B, Apache 2.0.

  • Optimizado para razonamiento y tool use; contexto 128k.

  • Referencias de despliegue: ~80 GB (120B) y 16 GB (20B).

Qué es “open‑weight” (y qué no)

Se abren los pesos para ejecutar y afinar localmente; no se liberan datasets/entrenamiento completo. Ventaja: control, on‑prem, menor dependencia. Desafío: más responsabilidad en seguridad.

OpenAI liberó los pesos de dos modelos —gpt-oss-120B y gpt-oss-20B— bajo Apache 2.0. No es open-source pleno (no incluye datasets ni todo el pipeline), pero sí suficiente para ejecutar, auditar y ajustar en tu propia infraestructura. La jugada es clara: atender a quienes necesitan control de datos, costos previsibles y menos dependencia de API externas. En arquitectura, son MoE con contexto de 128k y cuantización MXFP4 para que el 120B pueda vivir en una sola GPU de 80 GB y el 20B corra en 16 GB. Traducción humana: razonamiento y uso de herramientas sin que la factura se dispare, y prototipos viables en hardware de consumo.

Más allá de la ficha técnica, el valor está en lo operativo. Con pesos abiertos, seguridad y mantenimiento pasan a tu cancha: parches, finetuning, observabilidad, mitigaciones. También la responsabilidad: replicar salvaguardas que en la nube vienen “de fábrica”. ¿Rinde? Los materiales oficiales muestran al 120B rozando modelos de razonamiento previos en varios benchmarks; el 20B se acerca al desempeño de mini-modelos modernos, con la ventaja de correr local. Pero los benchmark no firman contratos: necesitas un scorecard interno con calidad, latencia, costo, cumplimiento y resultados sobre tus datos.

Movimiento táctico: OpenAI desactiva el argumento “solo cerrado” y entra a competir donde manda el on-prem. El caballo de batalla es el 20B: suficiente para pipelines internos, POCs serias y edge. El 120B es vitrina, útil si ya tienes músculo de MLOps. En Puerto Rico, sectores regulados (salud, finanzas) ganan si el equipo de TI está listo para operar modelos como productos, no experiments. Consejo sobrio: empieza con 20B, cierra el loop de evaluación y, si los números cuadran, escala.

Fuentes:

Keep Reading

No posts found