un sito di notizie, fatto dai commentatori

Come l’intelligenza artificiale ci sta aiutando a parlare con gli animali

0 commenti

Con i recenti successi dei modelli di intelligenza artificiale applicati al linguaggio (Large Language Models, preminentemente GPT-3 e GPT-4, motori del chatbot ChatGPT), si è riacceso l’interesse della comunità scientifica per questi strumenti, al fine di poter capire e comunicare con gli animali non umani.

Su Scientific American, Lois Parshley scrive un articolo a proposito del rinnovato interesse e “presa di coraggio” degli scienziati:

Western scientists traditionally have shied away from research that blurs the lines between humans and other animals for fear of being accused of anthropomorphism. But with recent breakthroughs in AI, “people realize that we are on the brink of fairly major advances in regard to understanding animals’ communicative behavior,” [Christian] Rutz says.

Nel seguito, comunque, l’articolista ricorda che i tentativi di decifrare la comunicazione di alcune specie animali sono in corso da un paio di decenni almeno, per mano di ricercatori come Shane Gero, della Carleton University di Ottawa, che da venti anni segue e decodifica le comunicazioni dei capodogli e, recentemente, ha cominciato anche a pensare a come usare i metodi di intelligenza artificiale per studiare la comunicazione di questi animali.

Non è il solo: Jordan Paerson su Vice racconta di come il gruppo di ricerca di Gašper Beuš dell’Università californiana di Berkeley abbia allenato una GAN (Generative Adversarial Network, un sistema di reti neuronali che si allenano “sfidandosi” a vicenda su un output desiderato) originariamente pensata per riprodurre il linguaggio umano sulle volcalizzazioni dei capodogli, osservando come il sistema non solo abbia riprodotto schemi già noti, ma ne abbia individuati degl altri, con delle similitudini con i fonemi che compongono il linguaggio umano:

the acoustic properties of these clicks—for example, pitch—are “on many levels analogous to human vowels and diphthongs,” which is when one vowel sound morphs into another such as in the word “coin.”

I capodogli non hanno però monopolizzato il lavoro dei ricercatori: c’è un progetto in corso all’Università di Tel Aviv che mira a decodificare le comunicazioni degli stormi di pipistrelli, come illustra questo video della BBC oppure, come racconta Camille Bromely su Wired, ci sono ricercatrici come Michelle Fortunet, che studia le megattere e con l’aiuto dell’intelligenza artificiale prova a “rispondere” alle loro canzoni:

Fournet has shared her catalog of humpback calls with the Earth Species Project, a group of technologists and engineers who, with the help of AI, are aiming to develop a synthetic whup. And they’re not just planning to emulate a humpback’s voice. The nonprofit’s mission is to open human ears to the chatter of the entire animal kingdom.

Oltre alla possibilità di sapere più di preciso che cosa il proprio gattino pensa, Parshley sostiene che poter capire e comunicare con gli animali non umani avrebbe molti risvolti positivi:

Decoding animal vocalizations could aid conservation and welfare efforts. It could also have a startling impact on us. Raskin compares the coming revolution to the invention of the telescope. “We looked out at the universe and discovered that Earth was not the center,” he says. The power of AI to reshape our understanding of animals, he thinks, will have a similar effect. “These tools are going to change the way that we see ourselves in relation to everything.”

L’interesse dei ricercatori per i nuovi strumenti basati sull’intelligenza artificiale non si limita alla decodifica delle vocalizzazioni degli animali, ma si estende anche alla possibilità di esplorare la comunicazione multimodale, per esempio considerando non solo i suoni emessi ma anche il “linguaggio del corpo”, spiega Parshley:

Take, for example, DALL-E 2, one of the AI systems that can generate realistic images based on verbal descriptions. It maps the shapes that represent text to the shapes that represent images with remarkable accuracy—exactly the kind of “multimodal” analysis the translation of animal communication will probably require.

Many animals use different modes of communication simultaneously, just as humans use body language and gestures while talking. Any actions made immediately before, during, or after uttering sounds could provide important context for understanding what an animal is trying to convey.

Ovviamente, per quanto grandi siano le possibilità offerte dalle reti neuronali e dagli algoritmi di intelligenza artificiale e per quanto grandi siano di conseguenza le speranze risposte nella loro capacità di tradurre i linguaggi animali, è necessario tenere conto delle oggettive difficoltà del campo, che non offre, comunque, “incantesimi”:

But as good as language models are at finding patterns, they aren’t actually deciphering meaning—and they definitely aren’t always right. Even AI experts often don’t understand how algorithms arrive at their conclusions, making them harder to validate. Benjamin Hoffman, who helped to develop the Merlin app before joining the Earth Species Project, says that one of the biggest challenges scientists now face is figuring out how to learn from what these models discover.

Le difficoltà tecniche che, sostiene Paschley, si riflettono anche in difficoltà di interpretazione per quanto riguarda il significato del messaggio raccolto e decifrato, non appaiono comunque insuperabili, neppure “solamente” con la tecnologia odierna. Questo spinge già alcuni ricercatori a porsi interrogativi etici su come utilizzare, in modo corretto e non dannoso, l’acquisita capacità di comunicare, con cognizione di causa, con le altre specie animali:

The prospect of this achievement raises ethical concerns. Karen Bakker, a digital innovations researcher and author of The Sounds of Life: How Digital Technology Is Bringing Us Closer to the Worlds of Animals and Plants, explains that there may be unintended ramifications. Commercial industries could use AI for precision fishing by listening for schools of target species or their predators; poachers could deploy these techniques to locate endangered animals and impersonate their calls to lure them closer. For animals such as humpback whales, whose mysterious songs can spread across oceans with remarkable speed, the creation of a synthetic song could, Bakker says, “inject a viral meme into the world’s population” with unknown social consequences.

Per adesso, questo campo di ricerca è popolato da persone che, si presume, siano animate da buone intenzioni e genuino interesse verso gli animali, ma non ci sono garanzie che questo atteggiamento duri e non ci sono protezioni legislative nel caso attori motivati dal profitto a discapito dell’utilizzo etico di queste tecnologie vogliano abusarne, o usarle in maniera nociva per gli animali.

Rutz and his co-authors noted that “best-practice guidelines and appropriate legislative frameworks” are urgently needed. “It’s not enough to make the technology,” Raskin warns. “Every time you invent a technology, you also invent a responsibility.”


Commenta qui sotto e segui le linee guida del sito.