Usare la voce di una donna in un robot per “manipolare” l’opinione pubblica è una tattica presente fin dai racconti di Asimov (vedi “Intuito femminile”). L’idea che gli umani trattino i computer con voce femminile in modo diverso rispetto a quelli con voce maschile è trattata già in un noto studio di metà degli anni ‘90, The Media Equation. Mentre gli effetti psicologici indotti sugli umani anche da un chatbot primitivo e non certo “intelligente” sono stati sviscerati con approccio critico, già negli anni ‘70, da Joseph Weizenbaum, lui stesso creatore di un chatbot, anzi del primo chatbot, ELIZA (ne abbiamo scritto su Guerre di Rete).
Nel 2019 uno studio UNESCO analizzava (e criticava) la tendenza delle aziende tech a femminilizzare di default le voci degli assistenti vocali, sostenendo che potevano consolidare o affermare pregiudizi di genere. Nel 2020 (quindi prima dell’esplosione dell’AI generativa) un report dell’istituto americano Brookings e di quello italiano ISPI tornava sul tema con un articolo intitolato: “Come i bot e gli assistenti vocali rafforzano i pregiudizi di genere”.
Mentre le due ricercatrici Kate Crawford e Jessa Lingen nel 2020 analizzavano non solo gli stereotipi di genere degli assistenti vocali, ma anche come questa rappresentazione aiutasse a non percepirli come strumenti di sorveglianza.
In questo contesto inseriamo Sam Altman, Ceo di OpenAI (la società dietro a ChatGPT). Il quale decide che la nuova modalità per cui si può parlare con ChatGPT-4o deve avere la voce di Scarlett Johansson, che fra le altre cose ha interpretato l’intelligenza artificiale di cui Joaquin Phoenix si innamora nel film Her.
A una prima dimostrazione di questa funzione a settembre molti avevano già notato che Sky, una delle voci con cui il chatbot poteva parlare, assomigliava molto a quella dell’attrice.
Continua a leggere su Guerre di Rete, la newsletter
Commenta qui sotto e segui le linee guida del sito.