Chiacchiera
26 Settembre - 3.610 visualizzazioni Di tutto questo quel che mi preoccupa è quel "ChatGPT probabilmente pensava"...
L'utente di ChatGPT voleva eliminare il sale dalla sua dieta e ha utilizzato l'intelligenza artificiale per decifrare come farlo, una decisione che si è rivelata catastrofica. Ha sostituito il cloruro di sodio, il comune sale da cucina, con il bromuro di sodio ed è finito in un letto d'ospedale dopo tre mesi di questa nuova dieta.
La storia è venuta alla luce nell'ultima rivista Annals of Internal Medicine , che ha osservato che ChatGPT probabilmente pensava che il sostituto non fosse destinato a scopi dietetici ma ad attività come la pulizia.
Nel caso di studio appena pubblicato, i ricercatori hanno affermato: "Questo caso evidenzia anche come l'uso dell'intelligenza artificiale (IA) possa potenzialmente contribuire allo sviluppo di effetti negativi sulla salute prevenibili".
Hanno spiegato ulteriormente: "Purtroppo non abbiamo accesso al registro delle sue conversazioni ChatGPT e non saremo mai in grado di sapere con certezza quale sia stato esattamente l'output che ha ricevuto, poiché le singole risposte sono uniche e si basano su input precedenti".
Dal web😁