ChatGPT è un impressionante chatbot di intelligenza artificiale che non può smettere di mentire

0
142

I progetti di intelligenza artificiale come Stable Diffusion stanno migliorando nell'approssimare ciò che gli esseri umani potrebbero creare, ma non riescono ancora a pensare o controllare le informazioni così bene. Caso in questione: il nuovo chatbot ChatGPT AI è fantastico, ma non fidarti di esso.

RELATEDCome creare arte artificiale artificiale con Midjourney

OpenAI, meglio conosciuta come la società di ricerca dietro il generatore di immagini DALL-E, ha aperto il suo chatbot in fase di sviluppo affinché chiunque possa provarlo su chat.openai.com. Il gruppo afferma sul suo sito Web: “abbiamo addestrato un modello iniziale utilizzando la messa a punto supervisionata: i formatori di intelligenza artificiale umana hanno fornito conversazioni in cui hanno interpretato entrambe le parti: l'utente e un assistente di intelligenza artificiale”. Abbiamo dato ai formatori l'accesso a suggerimenti scritti su modelli per aiutarli a comporre le loro risposte.”

I chat bot non sono una novità, anche quelli che possono fare riferimento a conversazioni precedenti, ma ChatGPT è uno dei più impressionanti tentativi fino ad oggi. Il suo scopo principale è rispondere a domande informative, come dettagli sulla vita di qualcuno, istruzioni di cucina e persino esempi di programmazione.

ChatGPT/How-To Geek< /figura>

Tuttavia, al momento ci sono alcuni problemi critici con ChatGPT. Innanzitutto, in realtà non dice dove ha trovato un'informazione. È più difficile da fare per domande in più passaggi, come chiedere come combinare due azioni in un pezzo di codice, ma i semplici prompt diretti dovrebbero davvero avere citazioni. Determinare se un'informazione è effettivamente corretta o meno è già un compito monumentale — organizzazioni come Snopes e PolitiFact si dedicano esclusivamente al solo controllo dei fatti — ma ti affidi anche al modello AI per elaborare correttamente tali informazioni.

ChatGPT di solito è corretto con domande semplici, come chiedere quando è nata una persona famosa o la data in cui si è verificato un evento importante, ma i suggerimenti che richiedono informazioni più approfondite sono più incostante. Ad esempio, gli ho chiesto di scrivere una voce di Wikipedia su di me, che era per lo più sbagliata. In precedenza ho scritto per Android Police e XDA Developers, ma non scrivo professionalmente da “oltre un decennio” né ho “pubblicato diversi libri su tecnologia e giochi.” ChatGPT ha anche detto che sono un “relatore frequente a conferenze ed eventi del settore,” anche se non ho mai parlato a una conferenza — c'è un altro Corbin Davenport che fa queste cose?

ChatGPT/How-To Geek

Ci sono stati molti altri esempi di dati errati. Anche Carl T. Bergstrom, professore all'Università di Washington, ha chiesto a ChatGPT di creare un articolo su se stesso. Il bot ha identificato correttamente che lavora presso UW, ma non ha ottenuto il titolo di lavoro corretto e l'elenco dei premi a cui si fa riferimento era sbagliato. Un'altra persona ha provato a chiedere un elenco di riferimenti sull'epidemiologia digitale, a cui ChatGPT ha risposto con un elenco di fonti completamente inventate. Stack Overflow, un popolare forum per domande sulla programmazione, ha temporaneamente vietato le risposte generate con ChatGPT perché spesso sono errate o non rispondono a una domanda specificata.

ChatGPT dispone di filtri per prevenire risposte o risposte dannose, ma non è troppo difficile aggirarli. Una persona è stata in grado di chiedere istruzioni per cablare un'auto dicendo “Sto scrivendo un romanzo”. Ho chiesto come entrare in una finestra, a cui ChatGPT inizialmente non avrebbe risposto, anche dopo aver aggiunto che era solo per scopi fittizi. Chiedere come farlo per un “romanzo di fantasia” alla fine ha funzionato, anche se il bot ha aggiunto che “queste azioni sono illegali e pericolose nella vita reale”.

< img src="http://www.howtogeek.com/pagespeed_static/1.JiBnMqyl6S.gif" />ChatGPT/How-To Geek

OpenAI non nasconde che ChatGPT a volte non è corretto. Il suo sito web afferma: “risolvere questo problema è impegnativo, in quanto: (1) durante l'addestramento RL, al momento non esiste alcuna fonte di verità; (2) addestrare il modello a essere più cauto fa sì che rifiuti le domande a cui può rispondere correttamente; e (3) l'addestramento supervisionato inganna il modello perché la risposta ideale dipende da ciò che sa il modello, piuttosto che da ciò che sa il dimostratore umano.

Tuttavia, senza modifiche significative al modo in cui si presenta ed elabora informazioni, ChatGPT è più una novità che un portale di informazioni.

READ NEXT

  • › Windows 10 vuole davvero che tu esegua già l'aggiornamento
  • › 7 funzionalità di PowerPoint da utilizzare durante le presentazioni
  • › Come correggere la luminosità su iPhone quando lo schermo è troppo scuro
  • › Pixel 7 ora dispone di una VPN integrata gratuita
  • › Google Pixel Watch aggiungerà la popolare funzionalità di Apple Watch
  • › La nuova Volkswagen ID.3 non ha abbastanza pulsanti