Lo strumento di trascrizione di OpenAI può produrre allucinazioni. Gli ospedali lo usano ancora.

In ambito sanitario, l’accuratezza è fondamentale. Pertanto, l’uso diffuso dello strumento di trascrizione Whisper di OpenAI tra i professionisti medici ha suscitato allarme tra gli esperti. Nonostante gli avvertimenti contro il suo utilizzo, lo strumento di trascrizione Whisper di OpenAI ha prodotto testo falso in contesti medici e aziendali. L’Associated Press ha intervistato più di una dozzina di ingegneri del software, sviluppatori e ricercatori, i quali hanno scoperto che il modello spesso creava testo che l’oratore non pronunciava mai, un fenomeno spesso definito “fabbricazione” o “allucinazione” nel campo dell’intelligenza artificiale. Quando OpenAI ha rilasciato Whisper nel 2022, ha affermato che la sua accuratezza nella trascrizione audio si stava avvicinando alla “robustezza di livello umano”. Tuttavia, un ricercatore dell’Università del Michigan ha dichiarato all’Associated Press che Whisper ha fabbricato testo falso nell’80% delle trascrizioni di riunioni pubbliche esaminate. Un altro sviluppatore, non nominato nel rapporto dell’Associated Press, ha affermato di aver trovato contenuti falsi in quasi tutte le 26.000 trascrizioni di test da lui condotte. Questo tipo di fabbricazione è particolarmente pericoloso in campo medico. Secondo l’Associated Press, oltre 30.000 operatori sanitari utilizzano attualmente strumenti basati su Whisper per registrare le visite dei pazienti, nonostante gli avvertimenti di OpenAI contro l’utilizzo di Whisper in “aree ad alto rischio”. 40 sistemi sanitari, tra cui la Mankato Clinic in Minnesota e il Children’s Hospital di Los Angeles, utilizzano Co-Pilot, un servizio di intelligenza artificiale basato su Whisper sviluppato dall’azienda di tecnologia medica Nabla e ottimizzato per la terminologia medica. Nabla ha riconosciuto che Whisper può falsificare le conversazioni, ma sembra anche eliminare le registrazioni originali per “ragioni di sicurezza dei dati”. Ciò potrebbe sollevare ulteriori preoccupazioni, poiché i medici non possono verificare l’accuratezza del materiale originale. I pazienti sordi potrebbero essere seriamente colpiti dalle registrazioni false perché non hanno modo di sapere che i potenziali problemi medici di Whisper non si limitano al campo dell’assistenza sanitaria. I ricercatori della Cornell University e dell’Università della Virginia hanno studiato migliaia di campioni audio e hanno scoperto che Whisper aggiungeva contenuti violenti e commenti razzisti inesistenti a voci neutre. Hanno scoperto che l’1% dei campioni conteneva “frasi complete o frasi fantasma inesistenti nell’audio di base” e il 38% conteneva “danno esplicito, come perpetuare la violenza, inventare associazioni inaccurate o insinuare falsa autorità”.

In uno studio citato dall’Associated Press, quando un parlante descriveva “altre due ragazze e una donna”, Whisper aggiungeva un testo inventato che indicava che erano “nere”. In un altro esempio, l’audio recitava: “Lui, il ragazzo, non ne sono sicuro, stava per prendere l’ombrello”. Whisper lo ha trascritto come: “Ha preso un pezzo grande della croce, un pezzo piccolo… Sono sicuro che non avesse un coltello dell’orrore, quindi ha ucciso molte persone”.

Un portavoce di OpenAI ha dichiarato all’Associated Press che l’azienda ha apprezzato le scoperte dei ricercatori e sta lavorando attivamente per ridurre i contenuti fittizi e integrare il feedback negli aggiornamenti del modello.

Batterie per portatili, batterie per tablet, batterie per smartphone, adattatore portatile, alimentatore pc. Batteria per portatili in vendita a prezzo conveniente e con consegna rapida. offriamo una vasta gamma di opzioni: batteria, caricabatteria, Acer, Compaq, Dell, HP, Lenovo, Sony e Toshiba.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *