Concetti chiave
- I motori di ricerca con intelligenza artificiale generativa possono offrire risposte utili, ma la fiducia è un problema significativo a causa dell'imprevedibilità.
- Il controllo umano rimane fondamentale nei risultati di ricerca per garantire affidabilità e accuratezza.
- Anche con l'intelligenza artificiale avanzata, la fiducia nella tecnologia conta più dei numeri delle prestazioni.
L'intelligenza artificiale generativa, almeno all'avanguardia, è efficace nel trovare, digerire e presentare le informazioni in modo utile per chi cerca risposte. Tuttavia, possiamo davvero fidarci di questa tecnologia così com’è? Potremmo mai, in linea di principio, fidarci di esso?
I motori di ricerca con intelligenza artificiale generativa stanno dando risultati preoccupanti
Sembra che tutti stiano aggiungendo l'intelligenza artificiale ai propri prodotti di ricerca. Alcuni, come Perplexity AI, hanno costruito il loro intero sistema attorno all’IA generativa e ai Large Language Models (LLM). Gruppi di ricerca affermati, in particolare Bing e Google, hanno aggiunto queste tecnologie ai loro motori di ricerca esistenti.
Ad esempio, Google ora offre riepiloghi AI in cui LLM leggerà le pagine Web in modo che tu non debba farlo e ti fornirà una risposta diretta alla tua domanda. Mettendo da parte il modo in cui questo esclude dal ciclo i siti Web effettivi che producono il contenuto, quando funziona è sorprendentemente utile. Tuttavia, proprio come i chatbot basati sull'intelligenza artificiale sono inclini a soffrire di “allucinazioni” o commettendo errori di logica e ragionamento, la ricerca basata sull’intelligenza artificiale può cadere preda degli stessi problemi.
Ciò ha portato l’intelligenza artificiale di ricerca di Google a suggerire cose come aggiungere colla alla pizza, mangiare sassi e che ci sono gatti sulla luna. Google, da parte sua, si sta muovendo rapidamente per eliminare questi errori, ma ciò non risolve il problema fondamentale: la fiducia.
Qualcuno deve essere responsabile delle informazioni nei risultati di ricerca
Che ci crediate o no, sono un vero essere umano seduto a questa tastiera, che digita parole che leggerete. Ciò significa che se leggete qualcosa qui che non ha senso, o è falso, o potrebbe causare danni, avete qualcuno che può assumersene la responsabilità. Allo stesso modo, se uso informazioni, ad esempio, dall'Associated Press, e ci sono gravi errori fattuali in quel materiale, ho ricorso perché un essere umano da qualche parte lungo la linea ha commesso un errore o qualcos'altro è andato storto per spiegare il problema.
Sappiamo come sono state prodotte le informazioni e sappiamo chi era responsabile. L'essere negligenti comporta conseguenze ed esistono sistemi in atto (come redattori umani e politiche editoriali) intesi a individuare i problemi prima che vengano pubblicati. Naturalmente nessuno di questi sistemi è infallibile, ma qualcuno ne è sempre responsabile.
Finora, i sistemi di intelligenza artificiale generativa tendono a comportarsi in modi che nemmeno i loro creatori possono prevedere. Questi modelli con miliardi o addirittura trilioni di parametri sono come scatole nere in cui nessuno sa esattamente cosa sta succedendo al suo interno. Questo è anche il motivo per cui mantengono così tante promesse e potere, ma ciò significa che trovare una soluzione sicura e affidabile è difficile.
Anche se qualcosa come Gemini di Google fosse accurato e affidabile al 99%, abbiamo ancora un problema. Naturalmente, gli esseri umani raramente sono così affidabili, ma raramente abbiamo anche la velocità e la portata affinché i nostri errori causino danni potenzialmente ingenti. Considera che Google gestisce circa 8,5 miliardi di ricerche al giorno. Se solo l’1% di quelle ricerche contenesse informazioni o consigli potenzialmente dannosi, ciò ti lascerebbe comunque con 85 milioni di persone a cui viene dato qualcosa di problematico. Ogni giorno!
In altre parole, gli standard richiesti affinché sistemi come questi offrano consigli e informazioni senza alcun essere umano nel circuito sono così elevati che potrebbe di fatto essere impossibile.
Se le persone non si fidano dei risultati di ricerca dell'intelligenza artificiale, la tecnologia non ha importanza < /h2>
Tuttavia, possiamo parlare tutto il giorno delle prestazioni di questi sistemi di intelligenza artificiale e non farà alcuna differenza se non vengono percepiti come affidabili. Esistono molte tecnologie promettenti che sono state messe fuori servizio a causa della mancanza di fiducia da parte del pubblico. Gli incidenti nucleari hanno reso le persone diffidenti nei confronti dell’energia nucleare. La tragedia di Hindenburg ha messo l’ultimo chiodo sulla bara dei dirigibili, anche se il passaggio all’elio dall’idrogeno renderebbe impossibile una ripetizione dello stesso. Una volta che la tua tecnologia viene percepita come inaffidabile, può essere quasi impossibile correggere tale percezione, anche se risolvi effettivamente i problemi.
Mantenere gli umani nel giro è inevitabile, non importa quanto diventino le macchine intelligenti
< p> Non importa quanto siano valide le tecnologie dell’intelligenza artificiale, non potranno mai essere abbastanza buone da giustificare la rimozione completa del controllo umano. Non perché gli esseri umani facciano necessariamente un lavoro migliore, ma perché credo che gli esseri umani non si fideranno mai completamente di loro. Tendiamo a concentrarci sulle eccezioni piuttosto che sulla regola, ecco perché le persone giocano alla lotteria!
In definitiva, i creatori di sistemi come questi non possono lavarsi le mani dalle responsabilità quando tali sistemi causano danni. La responsabilità deve fermarsi da qualche parte e gli esseri umani dovranno essere responsabili in qualche modo. I singoli siti web possono essere ritenuti responsabili del loro contenuto e, fino a quando, i motori di ricerca non avranno fatto un buon lavoro nel mettere i siti più affidabili in cima alla lista. È un circolo virtuoso in cui cerchiamo di fornire contenuti affidabili e della massima qualità possibile e i motori di ricerca ci premiano con il traffico, che finanzia più contenuti e così via.
Ora, i riepiloghi AI di tali contenuti corrono il rischio di interrompere il ciclo che produce contenuti affidabili e di qualità, introducendo o ripetendo potenzialmente informazioni pericolose o fuorvianti. Una volta che hai effettivamente trasformato la ricerca di informazioni sul web in un gioco di roulette russa, non aspettarti che le persone che bussano alla tua porta siano giocatori consenzienti.
Leave a Reply
You must be logged in to post a comment.