Di Shelley Brady***
Come si sente un animale in un dato momento? Gli esseri umani riconoscono da tempo alcuni comportamenti ben noti, come il sibilo di un gatto, come un avvertimento, ma in molti casi abbiamo avuto poca idea di cosa stesse succedendo nella testa di un animale.
Ora ne abbiamo un’idea migliore, grazie a un ricercatore milanese che ha sviluppato un modello di intelligenza artificiale che, a suo dire, è in grado di rilevare se i richiami esprimono emozioni positive o negative. Il modello di deep learning di Stavros Ntalampiras, pubblicato su Scientific Reports, è in grado di riconoscere i toni emotivi di sette specie di ungulati, tra cui maiali, capre e mucche. Il modello rileva caratteristiche comuni dei loro richiami, come altezza, intervallo di frequenza e qualità tonale.
L’analisi ha mostrato che i richiami negativi tendevano ad avere una frequenza medio-alta, mentre i richiami positivi erano distribuiti in modo più uniforme lungo tutto lo spettro. Nei suini, i richiami acuti erano particolarmente informativi, mentre nelle pecore e nei cavalli la frequenza media aveva un peso maggiore, segno che gli animali condividono alcuni indicatori comuni di emozione, ma li esprimono anche in modi che variano a seconda della specie.
Per gli scienziati che da tempo cercano di districare i segnali animali, questa scoperta dei tratti emotivi delle diverse specie rappresenta l’ultimo passo avanti in un campo che sta subendo una trasformazione grazie all’intelligenza artificiale.
Le implicazioni sono di vasta portata. Gli allevatori potrebbero ricevere avvisi tempestivi sullo stress del bestiame, gli ambientalisti potrebbero monitorare a distanza la salute emotiva delle popolazioni selvatiche e i guardiani degli zoo potrebbero reagire più rapidamente a lievi cambiamenti nel benessere.
Questo potenziale di una nuova comprensione del mondo animale solleva anche questioni etiche. Se un algoritmo riesce a rilevare in modo affidabile quando un animale è in difficoltà, quale responsabilità hanno gli esseri umani nell’agire? E come possiamo evitare un’eccessiva generalizzazione, dando per scontato che tutti i segnali di eccitazione significhino la stessa cosa in ogni specie?
Di abbai e ronzii
Strumenti come quello ideato da Ntalampiras non vengono addestrati per “tradurre” gli animali in senso umano, ma per rilevare modelli comportamentali e acustici troppo sottili perché noi possiamo percepirli senza aiuto.
Un lavoro simile è in corso con le balene, dove l’organizzazione di ricerca Project Ceti (Cetacean Translation Initiative) con sede a New York sta analizzando sequenze di clic strutturate chiamate CODA . A lungo ritenute in grado di codificare il significato sociale, queste vengono ora mappate su larga scala utilizzando l’apprendimento automatico, rivelando modelli che potrebbero corrispondere all’identità, all’affiliazione o allo stato emotivo di ciascuna balena.
Nei cani, i ricercatori stanno collegando le espressioni facciali, le vocalizzazioni e lo scodinzolio agli stati emotivi. Uno studio ha dimostrato che sottili cambiamenti nei muscoli facciali canini corrispondono a paura o eccitazione. Un altro ha scoperto che la direzione dello scodinzolio varia a seconda che un cane incontri un amico familiare o una potenziale minaccia.
Presso l’Insight Centre for Data Analytics della Dublin City University, stiamo sviluppando un collare di rilevamento indossato da cani da assistenza addestrati a riconoscere l’inizio di una crisi epilettica nelle persone che soffrono di epilessia. Il collare utilizza sensori per rilevare i comportamenti addestrati del cane, come girare su se stesso, che segnalano al proprietario che sta per avere una crisi epilettica.
Il progetto , finanziato da Research Ireland, mira a dimostrare come l’intelligenza artificiale possa sfruttare la comunicazione animale per migliorare la sicurezza, supportare interventi tempestivi e migliorare la qualità della vita. In futuro, puntiamo ad addestrare il modello a riconoscere i comportamenti istintivi del cane, come dare zampate, dare gomitate o abbaiare.
Anche le api sono sotto la lente dell’intelligenza artificiale. Le loro intricate danze – movimenti a forma di otto che indicano la presenza di cibo – vengono decodificate in tempo reale grazie alla visione artificiale. Questi modelli evidenziano come piccoli spostamenti di posizione influenzino l’interpretazione del messaggio da parte delle altre api.
Avvertenze
Questi sistemi promettono reali miglioramenti in termini di benessere e sicurezza degli animali. Un collare che rileva i primi segnali di stress in un cane da lavoro potrebbe salvarlo dall’esaurimento. Una mandria da latte monitorata da un’intelligenza artificiale basata sulla vista potrebbe ricevere cure per una malattia ore o giorni prima di quanto un allevatore se ne accorgerebbe.
Tuttavia, rilevare un grido di angoscia non equivale a comprenderne il significato. L’intelligenza artificiale può dimostrare che due code di balena si verificano spesso contemporaneamente, o che il grido di un maiale condivide caratteristiche con il belato di una capra. Lo studio di Milano si spinge oltre, classificando tali richiami come ampiamente positivi o negativi, ma anche in questo caso si ricorre al riconoscimento di schemi per cercare di decodificare le emozioni.
I classificatori emotivi rischiano di appiattire comportamenti complessi in rozzi binari di felicità/tristezza o calma/stress, come ad esempio registrare lo scodinzolio di un cane come “consenso”, quando a volte può essere un segnale di stress. Come osserva Ntalampiras nel suo studio, riconoscere schemi non equivale a comprendere.
Una soluzione è che i ricercatori sviluppino modelli che integrino i dati vocali con segnali visivi, come la postura o l’espressione facciale, e persino segnali fisiologici come la frequenza cardiaca, per costruire indicatori più affidabili dello stato d’animo degli animali. I modelli di intelligenza artificiale saranno inoltre più affidabili se interpretati nel contesto, insieme alla conoscenza di qualcuno esperto della specie.
Vale anche la pena ricordare che il prezzo ecologico dell’ascolto è elevato. L’uso dell’intelligenza artificiale comporta costi aggiuntivi in ??termini di emissioni di carbonio che, negli ecosistemi fragili, compromettono gli stessi obiettivi di conservazione che pretendono di perseguire. È quindi importante che qualsiasi tecnologia sia realmente al servizio del benessere degli animali, piuttosto che semplicemente soddisfare la curiosità umana.
Che lo accogliamo o no, l’intelligenza artificiale è qui. Le macchine stanno ora decodificando segnali che l’evoluzione ha perfezionato molto prima di noi, e continueranno a migliorarsi.
La vera prova, però, non è la nostra capacità di ascoltare, ma ciò che siamo disposti a fare con ciò che sentiamo. Se consumiamo energia decodificando i segnali degli animali ma utilizziamo le informazioni solo per sfruttarli o gestirli in modo più rigoroso, non è la scienza a fallire, siamo noi.
***Ricercatore post-dottorato in comportamento animale, tecnologia assistiva ed epilessia, Dublin City University – su The Conversation del 22/08/2025)

Lascia un commento