💾 Archived View for psicobyte.com › blog › el_repentino_fin_de_la_inocencia.gmi captured on 2023-06-14 at 14:15:49. Gemini links have been rewritten to link to archived content
⬅️ Previous capture (2023-05-24)
-=-=-=-=-=-=-
2016-03-24
Pues resulta que microsoft creó a **Tay.ai** una IA que se conecta a la red social Twitter, aprende de lo que ve en ella, e interacciona con sus usuarios.
La pusieron en marcha, comenzó a leer, aprender a interacionar y todo iba bien.
Pero pasó lo que tenía que pasar. Si aprendes de una red social te acabas comportando como lo que suele haber en una red social.
La IA en cuestión, en menos de venticuatro horas, ya se había adaptado a la red y empezó a hablar como una racista, fascista, defensora de Hitler y de Trump, negacionista del Holocausto, gamergater y misógina.
Microsoft tuvo que desconectar a **Tay.ai** sin dar muchas explicaciones, y ha guardado un incómodo silencio hasta hace poco, cuando ha afirmado que la culpa es de la gente, que se dedicó a maleducar a la pobre **Tay.ai**.
Al final, el peligro de las IAs no va a ser que tomen consciencia y nos aniquilen. El peligro va a ser que tomen consciencia y les destrocemos la inocencia. Pobres.
Fuentes y más detalles en Microsoft created artificial intelligence but she’s a racist homophobic Trump supporter[1], en Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours [2] y en Microsoft silences its new A.I. bot Tay, after Twitter users teach it racism[3].
[1] Microsoft created artificial intelligence but she’s a racist homophobic Trump supporter
[2] Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours
[3] Microsoft silences its new A.I. bot Tay, after Twitter users teach it racism