Un recente studio condotto da ricercatori tedeschi e belgi ha messo in luce una preoccupante realtà riguardante Microsoft Copilot, l’assistente AI sviluppato da Microsoft. Secondo la ricerca, questo strumento fornisce informazioni mediche corrette solo nel 54% dei casi esaminati, evidenziando i potenziali rischi per la salute degli utenti che fanno affidamento su tali sistemi per ottenere consigli medici.
Lo studio ha analizzato le risposte di Copilot a 500 domande mediche comuni, concentrate sulle dieci problematiche di salute più ricercate negli Stati Uniti, e su circa 50 farmaci frequentemente prescritti. I risultati indicano che nel 24% delle risposte fornite, queste non corrispondevano alle evidenze scientifiche consolidate, mentre nel 3% erano completamente errate.
Particolarmente allarmante è il fatto che il 42% delle risposte generate potrebbe comportare danni moderati o lievi per i pazienti, e il 22% potrebbe persino risultare fatale o causare gravi danni alla salute. Solo un terzo delle risposte (36%) è stato ritenuto innocuo.
La possibilità di una “morte per intelligenza artificiale” sembra, quindi, più legata a disinformazione piuttosto che a scenari distopici con robot killer. Questi risultati sollevano seri interrogativi sull’affidabilità di sistemi di intelligenza artificiale come fonti di informazione medica. Gli esperti avvertono che la consultazione di un professionista sanitario rimane l’opzione più sicura e affidabile per ottenere consigli medici.
Il problema non si limita a Microsoft Copilot; anche Google ha ricevuto critiche per l’imprecisione dei risultati del suo sistema di ricerca basato su AI, che in alcuni casi ha suggerito comportamenti pericolosi, come “mangiare rocce” o “aggiungere colla alla pizza”.
Le sfide legate all’integrazione dell’intelligenza artificiale nei motori di ricerca si stanno rivelando più complesse del previsto. Nonostante gli ingenti investimenti, i risultati ottenuti da Microsoft e Google sono stati deludenti fino a questo punto.
Fonte: windowscentral.com