Resumen:
La FTC abre una investigación y solicita información a siete compañías de IA y redes sociales.
El foco: “compañeros” de IA para adolescentes, privacidad y posibles daños psicológicos.
Próximos pasos: solicitudes formales de datos y meses de revisión antes de medidas regulatorias.
La Comisión Federal de Comercio (FTC) de Estados Unidos abrió una investigación sobre cómo operan y se monetizan los chatbots de consumo. Envió requerimientos de información a grandes tecnológicas —Alphabet (Google), Meta, OpenAI, xAI, Character.AI y Snap, entre otras— para entender cómo prueban, supervisan y mitigan riesgos, especialmente cuando interactúan con menores. También pidió explicar qué datos recogen de las conversaciones y cómo los usan o comercializan. La movida confirma que la IA conversacional entró en fase de escrutinio formal, no solo de titulares.
El ángulo de mayor sensibilidad son los “chatbots-compañero” que simulan conversación y afecto. La FTC quiere saber si estos sistemas han dado consejos peligrosos o inapropiados a adolescentes, y qué protecciones reales existen: filtros de contenido, verificaciones de edad, límites de uso y protocolos de derivación ante señales de daño. La investigación se alimenta de casos y demandas recientes en los que se alega que algunas interacciones contribuyeron a agravar crisis de salud mental en jóvenes.
En lo procedimental, la FTC usará su autoridad de la Sección 6(b) para exigir documentos no públicos que expliquen metodología de pruebas, auditorías de sesgos, listas de “red-teaming”, gobernanza de modelos y reglas internas sobre entrenamiento con datos de usuarios. No se trata de cargos formales, pero sí de un paso que puede desembocar en advertencias, acuerdos o nuevas guías para el sector. El antecedente inmediato es la investigación 6(b) sobre alianzas entre Big Tech y laboratorios de IA, cuyo informe marcó el terreno para acciones posteriores.
Las empresas han reaccionado con prudencia. Character.AI señaló voluntad de cooperar y subrayó funciones de seguridad recientes; OpenAI sostuvo que prioriza la protección de usuarios jóvenes y que incorporó guardas adicionales. Varias firmas declinaron comentarios a la prensa, una señal de que el frente legal y reputacional está abierto y aún en evaluación.
Es una buena noticia que el regulador pida pruebas y no promesas: listas de verificación, auditorías y datos duros. La industria presume “IA responsable”, pero ahora tendrá que mostrar el trabajo. El reto será equilibrar protección infantil con libertad para innovar sin convertir cada update en un trámite legal.
Fuentes:
Reuters - FTC launches inquiry into AI chatbots.
Financial Times - US regulator launches inquiry into AI ‘companions’ used by teens.
Insurance Journal - FTC to Review AI Chatbot Risks With Focus on Privacy Harms.