Tra i tanti difetti che stanno emergendo nelle IA e oltre ai problemi ambientali ed etici ora c’è il fondato rischio di finire in galera. Ecco cosa può succederti se ti affidi troppo a ChatGPT.
Se lo chiedete a noi, l’utilizzo dell’intelligenza artificiale dovrebbe essere sottoposto a una presa di coscienza di quello che si sta effettivamente facendo e soprattutto di quello con cui ci si sta effettivamente interfacciando. Perché purtroppo il termine “intelligenza” inganna in modo magistrale, soprattutto chi è poco avvezzo alla tecnologia e pensa che se qualcosa si chiama intelligenza artificiale è perché è in grado di ragionare.

Niente di più lontano. La dimostrazione poi di quanto sia effettivamente pericoloso affidarsi a occhi chiusi a un servizio come ChatGPT e le altre IA che si possono facilmente utilizzare online viene da questa storia in cui qualcuno ha rischiato veramente di finire in galera per non aver fatto il proprio lavoro.
Perché rischi di finire in prigione se usi ChatGPT, ecco la storia che devi leggere
Da quando sono arrivate le intelligenze artificiali, parte del pianeta si è immediatamente convinto che si tratti di sistemi molto simili al nostro cervello, solo che non c’è una persona attaccata.

In realtà basta esaminare con un po’ più di attenzione quello che succede per rendersi conto che non sono altro che enormi slot machine probabilistiche in cui è stato creato un set di regole estremamente minuzioso per cui pare che dall’altra parte dello schermo ci sia qualcosa che ragiona.
I pericoli del convincersi che una intelligenza artificiale sia effettivamente intelligente sono ancora tutti da scoprire, ma uno lo abbiamo già visto più volte: le allucinazioni.
I sistemi dietro le quinte delle intelligenze artificiali non sono infatti pensati e costruiti per arrendersi quando non conoscono qualcosa e, a forza di mettere insieme i pezzi in maniera probabilistica, costruiscono conoscenze che a volte non esistono. E poi escono i videogiochi.
Se a usare quindi questi servizi senza supervisione sono gli studenti, il massimo che ci si trova a leggere sono temi sconclusionati o ricerche con dettagli inesistenti. Ma che succede se invece a utilizzare un servizio come ChatGPT è un avvocato?
Il rischio è che qualcuno finisca realmente dietro le sbarre. Una situazione molto spinosa è per esempio quella che si è trovato a dover gestire l’avvocato di Mike Lindell, CEO di MyPillow, per una causa di diffamazione.
L’avvocato, dopo essere stato interpellato direttamente dalla corte, ha dovuto ammettere di aver scritto una bozza e di averla poi affidata a un servizio di intelligenza artificiale perché scrivesse il testo della citazione. Un testo in cui erano presenti oltre 30 errori tra casi inventati e difetti di forma.
E la cosa più strana è che questo caso non è neanche il primo in cui una IA usata in questo modo si scopre non essere in grado di produrre un testo corretto. Ma a quanto pare non abbiamo ancora imparato.