un sito di notizie, fatto dai commentatori

I creatori della IA ChatGPT non sanno spiegare perché non risponde alle domande su Trump

0 commenti

Semafor pubblica un articolo sui problemi della IA ChatGPT, prendendo spunto da una osservazione fatta da un utente che ha notato che la applicazione non sa rispondere a richieste che riguardano l’ex presidente Trump.

I suoi creatori notano che anche in altri casi l’applicazione si rifiuta di rispondere, ma non hanno una spiegazione. I contestatori rispondono che invece è stata programmata apposta con un bias progressista.

Una interpretazione dei rifiuti potrebbe essere che i file sul web riguardanti Trump (su cui si basa la ricerca della IA) contengono spesso linguaggio offensivo, che l’applicazione potrebbe essere stata addestrata ad evitare.

Un’altra interpretazione suggerita sottobanco è che

 a lot of the text out there on the internet was created by people who are bad at writing, grammar, and spelling. So OpenAI hired people to have conversations with the AI and grade its answers on how good they sounded. … They wanted it to sound like a real person who can string together coherent sentences.

Contemporaneamente a questo articolo, il Guardian pubblicava una notizia correlata che mostra i pericoli dell’uso dell’applicazione nella vita reale.

In Colombia, un giudice ha usato ChatGPT per porle una domanda professionale riguardo al dovere di una assicurazione di pagare alcune spese per il trattamento di un malato, e la risposta corrisponde a quella che è stata la decisione del giudice (che ha precisato di essersi basato non solo sulla risposta, ma anche su precedenti legali specifici).

Anche il Guardian ha usato ChatGPT, per chiedere un parere sulla questione, e questa è stata la risposta:

The chatbot itself was more apprehensive about its new role in the justice system.

“Judges should not use ChatGPT when ruling on legal cases … It is not a substitute for the knowledge, expertise and judgment of a human judge,” it responded to a question from the Guardian.

“Journalists should exercise caution when using quotes generated by ChatGPT in their articles,” the bot added.


Commenta qui sotto e segui le linee guida del sito.