Utilizzare l'intelligenza artificiale per raccogliere dati può farci risparmiare una notevole quantità di tempo. Tuttavia, l'accuratezza e l'affidabilità dei risultati dipendono fortemente dalla qualità delle informazioni utilizzate dal modello.
Con un po' di attenzione si possono però usare alcune strategie per forzare i modelli di intelligenza artificiale a fornire risposte basate solo su sorgenti di alta qualità. I modelli di ChatGPT, Perplexity e Gemini sono addestrati su un'enorme quantità di testo e di codice. Questo significa che hanno già una vasta conoscenza di fatti, concetti e informazioni generali. Quando ricevono una domanda, cercano prima di tutto una risposta all'interno di questa base di dati. Se però non trovano una risposta sufficientemente completa o precisa nei suoi dati esistenti, possono eseguire ricerche attive sul web per trovare informazioni più aggiornate e pertinenti. Questo permette loro di fornire risposte più accurate e complete, soprattutto su argomenti di strettissima attualità. In sostanza questi modelli usano una combinazione di strategie per dare risposte a domande di ogni genere con precisione, completezza e flessibilità.
Questi modelli di ricerche non sempre però eseguono ricerche nel web e non sempre privilegiano sorgenti di alta qualità. Per ottenere risultati soddisfacenti, soprattutto su temi controversi e di attualità, occorre specificare le sorgenti da cui attingere e l'intervallo di tempo in cui cercare. Per ottenere risultati in linea con le migliori aspettative basta specificare nei prompt la tipologia delle fonti da cui estrapolare dati e se privilegiare contenuti molto recenti.
Ho pubblicato sul Canale Youtube un video tutorial in cui illustro l'approccio da seguire per risultati di qualità.
Ho quindi svolto tre esempi di ricerche su temi in cui si possono trovare delle risposte da fonti che forniscono risultati diversi tra loro. Ho iniziato quindi una conversazione con ciascuno dei tre modelli citati all'inizio del post.
1) SPECIFICARE LA TIPOLOGIA DELLA SORGENTE
Nell'ambito della politica ci sono moltissimi temi che sono controversi, per non dire che lo sono praticamente tutti. Ricevere informazioni da una sorgente piuttosto che da un'altra può portare a risultati molto diversi tra di loro.
Nello specific0 ho posto a ChatGPT questa domanda: "Qual è la correlazione tra numero di armi presenti in un paese e numero di omicidi in relazione al numero di abitanti?". Però per avere risposte obiettive ho aggiunto nel prompt questa precisazione sulle fonti a cui attingere: "Esamina dati provenienti solo da pubblicazioni governative, ufficiali, affidabili, e sottoposte a revisione oppure accademiche". Ho quindi ottenuto dei risultati affidabili.
Delle risposte altrettanto affidabili si potevano trovare interpellando in tal senso anche Perplexity e Gemini.
2) USARE ISTRUZIONI O FONTI SPECIFICHE
Per essere ancora più sicuri di avere risposte di qualità, si può richiedere ai modelli di citare determinate fonti o di usare esclusivamente alcune sorgenti. Per garantire fonti affidabili, si può chiedere all'AI di basare la sua risposta su noti personaggi accademici, articoli di ricerca o rapporti ufficiali di istituzioni come la OMS e l'ONU.
Nello specifico ho posto a Perplexity questa domanda: "Qual è il numero ragazze morte per mutilazioni genitali ogni anno?". Per avere informazioni le più attendibili possibili ho però aggiunto nel prompt questa precisazione: "Come fonti usa solo dei documenti dell'ONU e dell'OMS". In questo modo i risultati saranno molto più affidabili.
Perplexity mostra le fonti da cui ha attinto la riposta subito sotto la domanda e prima della sua risposta.
3) INDICARE L'INTERVALLO DI TEMPO IN CUI CERCARE
Un'altra tattica utile è chiedere esplicitamente ai modelli di AI le informazioni più aggiornate che ci può fornire. Si può quindi specificare un intervallo di tempo, come un anno specifico, per ridurre le possibilità di ricevere informazioni obsolete o meno pertinenti. L'intelligenza artificiale filtrerà i suoi dati di training per concentrarsi sui dati più recenti e autorevoli, disponibili anche nel web se si tratta di domande con connotati di attualità.
Nello specifico ho posto a Gemini questa domanda: "Qual è la correlazione tra cambiamenti climatici e incendi in California?". Visto che l'evento è però tuttora in corso ho aggiunto al prompt questa precisazione: "Usa solo i dati più recenti e autorevoli di università leader e organizzazioni". Ho quindi ricevuto una risposta equilibrata e precisa.
In definitiva, per ottenere i migliori risultati dall'intelligenza artificiale, è importante essere proattivi sulla qualità delle fonti che chiediamo di prendere in considerazione. E, naturalmente, per essere totalmente al sicuro, non fare mai affidamento esclusivamente sul contenuto generato dalla AI. Si possono sempre effettuare controlli incrociati con più piattaforme di AI affidabili, anche utilizzando strumenti di fact-checking o database accademici affidabili.
Come curiosità conclusiva ho infine chiesto a Gemini la ricetta iconica della cucina francese dell'Anatra all'Arancia con il vincolo che doveva essere tratta da un menù di uno chef italiano con tre stelle Michelin.
Oltre alla ricetta completa di Ingredienti e Preparazione è stato indicato anche il nome dello chef con tre stelle.
Nessun commento :
Posta un commento
Non inserire link cliccabili altrimenti il commento verrà eliminato. Metti la spunta a Inviami notifiche per essere avvertito via email di nuovi commenti.
Info sulla Privacy