En una crítica audaz de la reciente incursión de OpenAI en la publicidad en ChatGPT, la startup de IA Anthropic está aprovechando el humor y un toque de controversia para dejar claro su punto. La compañía planea transmitir anuncios cómicos durante el Super Bowl destinados a burlarse de la elección de OpenAI de monetizar su modelo de lenguaje, reforzando su compromiso con una política de no publicidad para su propia IA, Claude.
* “Anthropic acaba de dar un gran golpe a la decisión de OpenAI de poner anuncios en ChatGPT. Anthropic está transmitiendo anuncios burlándose de los anuncios de ChatGPT durante el Super Bowl, y son divertidísimos”, publicó el comentarista de tecnología Tom Warren el 4 de febrero de 2026 en Blue Sky.
Es probable que el enfoque capte la atención, pero también genere una nueva narrativa sobre la responsabilidad corporativa en el desarrollo de la IA. Irónicamente, ha habido grandes críticas e indignación por las prácticas de Anthropic, particularmente en relación con cómo la compañía ha digitalizado recursos que nunca fueron destinados a la destilación de IA.
En las redes sociales, muchos han señalado un almacén que contenía libros que Anthropic pretendía escanear para entrenamiento de IA, y luego destruyó los libros como si quisiera destruir la evidencia de su robo.
Además, Anthropic ha publicado una nueva investigación que indica que a medida que los modelos de IA se vuelven más sofisticados, sus objetivos de fuera de distribución (OOD) podrían en realidad volverse menos coherentes. Este hallazgo, suscitado interés en debates en línea, indica desafíos continuos en la alineación y función de la IA. El experto en análisis Duncan Weldon elogió a Anthropic por ser transparente sobre las compensaciones involucradas en el desarrollo de la IA.
No obstante, Anthropic parece centrarse en aplicaciones comerciales. Los clientes importantes, como Bloomberg y otros, confían en los modelos Anthropic para impulsar su funcionalidad Bloomberg Chat. Esta podría ser la razón por la que son financieramente capaces de negar el mérito de los anuncios para sus resultados. Sus clientes empresariales son su verdadero “pan y mantequilla”.
Además, la comunidad tecnológica está entusiasmada con la anticipación en torno al inminente lanzamiento de Claude Sonnet 5. Estos prometen nuevos avances en las capacidades de IA. Al momento de escribir este artículo, a principios de febrero, la mayoría de los usuarios solo pueden acceder a Sonnet 4.5.
A medida que el panorama tecnológico evoluciona y las conversaciones sobre la ética de la IA se intensifican, el posicionamiento agresivo de Anthropic prepara el escenario para una batalla competitiva con OpenAI y plantea preguntas apremiantes sobre las implicaciones de la IA en la sociedad y la educación.
Los observadores de la industria siguen siendo cautelosos, y varios observadores han expresado su preocupación sobre el posible impacto negativo de los productos de IA en las instituciones educativas. Los usuarios de Blue Sky, como Ocean Club, notaron la preocupante tendencia de las universidades a dar la bienvenida a estas tecnologías a pesar de los daños reconocidos: “Tanto Microsoft como Anthropic están admitiendo abiertamente cuánto daño causarán sus productos a la educación y, sin embargo, las universidades siguen diciendo ‘sí, esto suena bien, nos ahorra toda la molestia de enseñar’”.

