L'azienda di salute mentale online utilizza ChatGPT | ChatGPT | Chat GPT 3: cos'è, come usarlo e perchè RIVOLUZIONERÀ il MONDO

 Chat GPT 3: cos'è, come usarlo e perchè RIVOLUZIONERÀ il MONDO

Chat GPT 3: cos'è, come usarlo e perchè RIVOLUZIONERÀ il MONDO






L'azienda di salute mentale online utilizza ChatGPT per aiutare a rispondere agli utenti in esperimenti-sollevando preoccupazioni etiche in materia di assistenza sanitaria e tecnologia AI

Una società di salute mentale digitale sta attirando le ire per l'utilizzo della tecnologia GPT-3 senza informare gli utenti.

Il co-fondatore di Koko, Robert Morris, ha detto a Insider che l'esperimento è "esente" dalla legge sul consenso informato a causa della natura del test.



Man mano che i casi d'uso di ChatGPT si espandono, una società sta utilizzando l'intelligenza artificiale per sperimentare l'assistenza sanitaria mentale digitale, facendo luce sulle aree grigie etiche attorno all'uso della tecnologia.


Rob Morris-co-fondatore di Koko, un servizio gratuito di salute mentale e senza scopo di lucro che collabora con le comunità online per trovare e curare le persone a rischio-ha scritto in un thread Twitter venerdì che la sua azienda ha utilizzato i chatbot GPT — 3 per aiutare a sviluppare risposte a 4.000 utenti.


Morris ha detto nel thread che la società ha testato un " approccio co-pilota con gli esseri umani che supervisionano l'IA secondo necessità "nei messaggi inviati tramite Koko peer support, una piattaforma che ha descritto in un video di accompagnamento come" un luogo in cui è possibile ottenere aiuto dalla nostra rete o aiutare qualcun altro."


"Rendiamo molto facile aiutare altre persone e con GPT-3 stiamo rendendo ancora più facile essere più efficienti ed efficaci come fornitori di assistenza", ha detto Morris nel video.


ChatGPT è una variante di GPT-3, che crea testo simile a quello umano basato su prompt, entrambi creati da OpenAI.


Gli utenti di Koko non sono stati inizialmente informati che le risposte sono state sviluppate da un bot e "una volta che le persone hanno appreso che i messaggi sono stati co-creati da una macchina, non ha funzionato", ha scritto Morris venerdì.


"L'empatia simulata è strana, vuota. Le macchine non hanno vissuto, l'esperienza umana, quindi quando dicono "sembra difficile" o "capisco", sembra inautentico", ha scritto Morris nel thread. "Una risposta chatbot che viene generata in 3 secondi, non importa quanto elegante, si sente a buon mercato in qualche modo."


Tuttavia, sabato, Morris ha twittato " alcuni importanti chiarimenti."


"Non stavamo accoppiando le persone per chattare con GPT-3, a loro insaputa. (col senno di poi, avrei potuto formulare il mio primo tweet per riflettere meglio questo)," il tweet ha detto.


"Questa funzione era opt-in. Tutti sapevano della funzione quando era in diretta per alcuni giorni."


Morris ha detto Venerdì che Koko " tirato questo dalla nostra piattaforma abbastanza rapidamente. Ha osservato che i messaggi basati sull'intelligenza artificiale sono stati "valutati significativamente più alti di quelli scritti dagli esseri umani da soli" e che i tempi di risposta sono diminuiti del 50% grazie alla tecnologia.


Preoccupazioni etiche e legali

L'esperimento ha portato a proteste su Twitter, con alcuni professionisti della salute pubblica e della tecnologia che hanno denunciato la società per aver violato la legge sul consenso informato, una politica federale che impone che i soggetti umani forniscano il consenso prima di essere coinvolti in scopi di ricerca.


"Questo è profondamente immorale", ha twittato lo stratega dei media e autore Eric Seufert sabato.


"Wow, non lo ammetterei pubblicamente", ha twittato Christian Hesketh, che si descrive su Twitter come uno scienziato clinico. "I partecipanti avrebbero dovuto dare il consenso informato e questo avrebbe dovuto passare attraverso un IRB [institutional review board]."


In una dichiarazione a Insider sabato, Morris ha detto che la società "non stava accoppiando le persone per chattare con GPT-3" e ha detto che l'opzione di utilizzare la tecnologia è stata rimossa dopo aver realizzato che "sembrava un'esperienza non autentica."


"Piuttosto, stavamo offrendo ai nostri sostenitori tra pari l'opportunità di utilizzare GPT-3 per aiutarli a comporre risposte migliori", ha detto. "Ricevevano suggerimenti per aiutarli a scrivere più risposte di supporto più rapidamente."


Morris ha detto a Insider che lo studio di Koko è "esente" dalla legge sul consenso informato e ha citato precedenti ricerche pubblicate dalla società che era anche esente.


"Ogni individuo deve fornire il consenso per utilizzare il servizio", ha detto Morris. "Se questo fosse uno studio universitario (che non è, era solo una caratteristica del prodotto esplorata), questo rientrerebbe in una categoria di ricerca "esente"."


"Questo non ha imposto ulteriori rischi per gli utenti, nessun inganno e non raccogliamo informazioni personali o informazioni sulla salute personale (nessuna e-mail, numero di telefono, ip, nome utente, ecc.)."


ChatGPT e l'area grigia della salute mentale

Tuttavia, l'esperimento sta sollevando domande sull'etica e sulle aree grigie che circondano l'uso dei chatbot AI nell'assistenza sanitaria in generale, dopo aver già provocato disordini nel mondo accademico.


Arthur Caplan, professore di bioetica alla Grossman School of Medicine della New York University, ha scritto in una e-mail a Insider che usare la tecnologia AI senza informare gli utenti è "gravemente immorale."


"L'intervento ChatGPT non è standard di cura", ha detto Caplan a Insider. "Nessun gruppo psichiatrico o psicologico ha verificato la sua efficacia o esposto potenziali rischi."


Ha aggiunto che le persone con malattie mentali "richiedono una sensibilità speciale in qualsiasi esperimento", inclusa "una stretta revisione da parte di un comitato etico di ricerca o di un comitato di revisione istituzionale prima, durante e dopo l'intervento".


Caplan ha detto che l'uso della tecnologia GPT-3 in tali modi potrebbe avere un impatto sul suo futuro nel settore sanitario in modo più ampio.


"ChatGPT può avere un futuro come fanno molti programmi di intelligenza artificiale come la chirurgia robotica", ha detto. Ma quello che è successo qui può solo ritardare e complicare quel futuro."


Morris ha detto a Insider che la sua intenzione era quella di " enfatizzare l'importanza dell'umano nella discussione uomo-IA."


"Spero che non si perda qui", ha detto.

Commenti



Font Size
+
16
-
lines height
+
2
-