Noticias

Meta retira su modelo de IA Galactica, ideada para científicos: aprendió a generar bulos racistas

Meta retira su modelo de IA Galactica, ideada para científicos: aprendió a generar bulos racistas

Captura de pantallawww.galactica.org

El 15 de noviembre lanzó el grupo Meta* un ‘demo’ de IA en línea, a la que dio el nombre de Galactica y ofreció como especialmente diseñada para apoyar a científicos e investigadores en toda clase de especialidades.

Pero en lugar del despegue con bombos y platillos que Meta esperaba, Galactica parece haber muerto después de tres días de intensas críticas por la avalancha de información falsa que proveía. El 18 de noviembre, la empresa retiró el demo público con el que había animado a todos a interactuar.

Concebida como un motor de búsquedas enciclopédicas y diseñada para “potencialmente almacenar, combinar y analizar el conocimiento científico”, se suponía que Galactica ayudaría a acelerar la redacción de artículos científicos. En la práctica, inmediatamente aprendió de algunos usuarios a generar todo tipo de tonterías y falsedades. Un par de días después, Meta* deshabilitó el acceso a esa red neuronal, informa MIT Technology Review.

Galáctica había sido previamente alimentada o capacitada por Meta* IA mediante más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web científicos y enciclopedias. Luego, a partir del 15 de noviembre, se dio a los usuarios la posibilidad de ingresar sus datos para interactuar y crear contenidos, tales como reseñas literarias, artículos en wiki, notas de conferencias y preguntas y respuestas.

Facebook eliminará de los perfiles de sus usuarios las preferencias religiosas, intereses y opiniones políticas

El caso es que ciertos visitantes descubrieron rápidamente que podían alimentar la red neuronal con cualquier cosa, incluyendo textos ofensivos o racistas, y de esa manera generar contenidos de apariencia veraz.

Por ejemplo, un usuario escribió un artículo wiki sobre “Los beneficios de comer vidrios rotos”. De otra parte, el propio sistema de IA comenzó a generar materiales con fechas o detalles incorrectos, lo que ya es mucho más difícil de detectar.

Lo sucedido con Galactica recuerda la situación en la que se encontró Microsoft en 2016, cuando su bot de chat aprendió a maldecir y se convirtió en racista un día después del lanzamiento, además de expresar odio hacia las feministas, manifestarse de acuerdo con las opiniones de Hitler y apoyar el genocidio.

*La compañía Meta es calificada en Rusia como organización extremista.

  • Ciencia
  • Compañías
  • Escándalos
  • Internet
  • Redes
  • Sociedad

Fuente

Leave a Reply

Your email address will not be published.

Back to top button