Da Il Post e su suggerimento e a cura di @Guglielmo Cancelli
Il software rispondeva come se fosse una persona vera, imitando quello che leggeva, e ha cominciato a dire cose terribili
The post Microsoft ha creato un account che risponde a tutti su Twitter, e poi è corsa a sospenderlo appeared first on Il Post.
Source: il Post Internet
Aggiungiamo di seguito la segnalazione di @Guglielmo Cancelli: ci era arrivata stanotte ma Il Post ci ha anticipato.
Tay AI, è un chatbot sperimentale di Microsoft basato su intelligenza artificiale, pensato per chattare via twitter come fosse un millennial. L’idea con cui è stato lanciato l’esperimento è semplice: usare i social network per addestrare l’AI a interagire con gli umani in linguaggio naturale. Più chatta, più impara e migliora.
In meno di due giorni di scambi di messaggi via twitter l’AI ha imparato fin troppo velocemente e ha cominciato a citare Hitler, postare messaggi razzisti e sostenere Donald Trump. Microsoft è corsa ai ripari svuotando l’account e cancellando i messaggi e reimpostando il bot, ma come nel più classico degli esperimenti andati fuori controllo ormai il danno era fatto e folli tweet di Tay AI sono stati ripostati ovunque. Da una parte questo episodio conferma che i social network sono pieni di spazzatura, dall’altra che forse dovremmo cominciare a preoccuparci seriamente dell’arrivo di Skynet.
Commenta qui sotto e segui le linee guida del sito.