Home » Tecnología » OpenAI, Google, Microsoft y Anthropic se unen para autorregular el desarrollo de los modelos de IA más sofisticados

OpenAI, Google, Microsoft y Anthropic se unen para autorregular el desarrollo de los modelos de IA más sofisticados

Loading

autorregular el desarrollo de los modelos de IA

OpenAI, Google, Microsoft y Anthropic se unen para autorregular el desarrollo de los modelos de IA más sofisticados

Autorregular el desarrollo de los modelos de IA es el objetivo que pretende la unión de OpenAI, Google, Microsoft y Anthropic.

Curioso es que las ‘grades’ quieran autorregular esto, cuando la sensación que da es que con esta unión lo que se pretende es blindar una actividad apara que quede en sus manos, ‘con sus reglas’, evitando que entren otros competidores. Nadie a estas alturas de ‘la película’ se cree que estas cuatro empresas lo que buscan es la autorregulación, sencillamente buscan limitar la competencia.

Frontier Model Forum nace con el objetivo de promover el desarrollo responsable de los modelos de frontera, los más sofisticados, que describen como aquellos «modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas». Han esgrimido para la unión tres puntos en una nota de prensa conjunta:

  • Avanzar en la investigación de la seguridad de la IA para minimizar sus potenciales riesgos
  • Identificar las mejores prácticas de seguridad para los modelos de frontera
  • Compartir sus conocimientos con legisladores, académicos y sociedad civil

Lo que se puede traducir en la estrategia que realizan este tipo de empresas siempre: «al amparo de la consecución del bien social, mantienen un monopolio controlado, gestionado, legislado y dirigido con normas dictadas por ellos mismos, limitando al entrada de competidores que no ‘entren’ por sus normas».

Comentar

Su dirección de correo electrónico no será publicada.