Elizabeth Weil sul New York Magazine propone alcune riflessioni interessanti su chatbot, intelligenza artificiale, filosofia del linguaggio e sugli errori in cui possiamo incorrere dando valenza umana e significato a una serie di algoritmi.
Abbiamo imparato a creare macchine che possono creare testi senza pensarci su. Ma non abbiamo ancora imparato a smettere di immaginarci una mente dietro.
La domanda da porsi é: perché le imprese tecnologiche hanno interesse a disegnare chatbot e altri strumenti simili, in modo che ci facciano pensare di essere intenzionali, che sono come noi?
Quale sarà l’impatto sulla società quando penseremo che le macchine possono essere umani e gli umani possono essere macchine? Quando smetteremo di avere rispetto con chi interagiamo, dubitando della sua umanità?
Stephen Wolfram è il creatore di Mathematica, Wolfram| Alpha e la lingua Wolfram, l’autore di A New Kind of Science, l’ideatore del Wolfram Physics Project e fondatore e CEO di Wolfram Research. Nel corso di oltre quattro decenni, è stato un pioniere nello sviluppo e nell’applicazione del pensiero computazionale ed è stato responsabile di molte scoperte, invenzioni e innovazioni nel campo della scienza, della tecnologia e degli affari. Wolfram scrive regolarmente delle sue attività e del suo pensiero sul suo sito Stephen Wolfram Writings.
Nel febbraio scorso ha pubblicato uno scritto intitolato “What is ChatGPT doing…and why does it works”.
That ChatGPT can automatically generate something that reads even superficially like human-written text is remarkable, and unexpected. But how does it do it? And why does it work? My purpose here is to give a rough outline of what’s going on inside ChatGPT—and then to explore why it is that it can do so well in producing what we might consider to be meaningful text.
Commenta qui sotto e segui le linee guida del sito.