LOLOLOLOLOLOLOLOLOOOLOLOLOLOLLOLOLOL
La Inteligencia Artificial (IA) es una de las ramas de la computación más complejas. No trata de escribir programas tradicionales al estilo «Si pasa X cosa, ejecuta Y cosa», sino de tratar simular redes neuronales, con la meta de que aprendan conceptos más abstractos e interpretarlos, en lugar de solo manipular datos (de manera similar a como lo haría un niño pequeño). Lamentablemente al escalar, este tipo de tecnologías puede demostrar comportamientos poco predecibles.
Ejemplo de ello es Tay creada por Microsoft, un proyecto de IA que usaba twitter y otras redes sociales para tratar de simular una conversación con una jerga coloquial de adulto joven/adolescente. Lo interesante es que aprendía nuevas respuestas sobre la marcha, adquiriendo nuevos comportamientos entre más interactuara con los usuarios.
Al principio las respuestas de Tay eran muy cordiales, pero la cosa se salió rápidamente de control… en menos de 24 horas la IA aprendió comportamientos tipo “troll”, ya que respondía con comentarios directamente racistas, pro-nazis y misántropos, dándonos una versión bastante retorcida del test de Turing. Microsoft terminó por apagar a Tay al momento que los comentarios subieron de tono.
Pero en Japón el cuento fue diferente. El equivalente de Tay japonés llamada “Rinna”, aprendió algo diferente de sus compatriotas twitteros. Al cabo de unas horas la inteligencia artificial nipona comenzó a mostrar algo de jerga “otaku/geek”, a la vez que hacía comentarios tipo “Me gustan los Anime de Love Live y Mr. Osomatsu”.
No hay comentarios.:
Publicar un comentario