AI+Bing%2C+Microsoft+ne+limita+l%26%238217%3Buso%3A+il+motivo+lascia+tutti+spiazzati
videogiochicom
/ai-bing-microsoft-ne-limita-luso-il-motivo-lascia-tutti-spiazzati/amp/
Fuorigioco

AI Bing, Microsoft ne limita l’uso: il motivo lascia tutti spiazzati

Pare che troppe domande lo mandino in tilt. E che, a seconda del tono con cui ci si rivolge al sistema ponendo domande e quesiti, possa rispondere con una sintassi prepotente e addirittura offensiva. Per questo motivo, Microsoft tenta di correre ai ripari: da un lato, rivolgendosi direttamente agli utenti e, dall’altro, mettendo mano al chatbot. Scopriamo di che cosa si tratta.

Fonte: Pixabay – VideoGiochi.com

E’ solo di pochi giorni fa la notizia delle risposte definite scorbutiche e maleducate avanzate dal chatbot ChatGPT di OpenAI ad alcuni utenti, “colpevoli” di aver formulato troppe domande. E, secondo quanto trapelato dalle prime dichiarazioni di Microsoft riguardo all’accaduto, di averle formulate con un tono che avrebbe causato le repliche piccate ed offensive da parte del sistema.

Come a dire: se gli richiedi troppe informazioni, va in tilt; e se ti rivolgi al sistema con un tono poco consono, ti risponderà per le rime, o anche peggio. E così Microsoft ed OpenAI corrono ai ripari e, in una nota rilasciata lo scorso 17 Febbraio, annunciano le misure riparatrici che hanno deciso di adottare.

In sostanza si tratta di una limitazione delle conversazioni che ogni utente potrà effettuare con l’intelligenza artificiale. Ogni giorno, i cosiddetti “scambi” (ovvero l’insieme di una domanda da parte dell’utente più una risposta da parte del sistema) potranno essere un massimo di 50, suddivisi in turni da massimo 5 scambi alla volta. In questo modo, l’intelligenza artificiale potrà non andare in tilt e mantenere il suo aplomb.

Le dichiarazioni di Microsoft riguardo all’accaduto e le richieste di feedback agli utenti

Fonte: Pixabay – VideoGiochi.com

Secondo quanto dichiarato ufficialmente da Microsoft, i casi a rischio sarebbero soltanto una contenutissima minoranza rispetto al totale: “Solo l’1% delle conversazioni prosegue per oltre 50 messaggi”, ha riportato il colosso di Redmond tramite il blog ufficiale di Bing.

E, sempre nella nota, si é poi rivolta direttamente agli utenti per suggerire le nuove modalità di utilizzo consentito: “Quando una conversazione avrà raggiunto 5 scambi, ti verrà chiesto di cambiare argomento. Alla fine di ogni sessione, sarà necessario pulire la cronologia per evitare di confondere il modello”.

Infine, la richiesta di continuare a fornire feedback per comprendere in profondità le criticità più significative riscontrate dall’utenza, al fine di proseguire con le implementazioni necessarie a rendere il chatbot sempre più affidabile e stabile. Senza dubbio, comunque, i problemi e le “sorprese” di ChatGPT non finiranno qui.

Gian Lorenzo Lagna

Recent Posts

Appena annunciato uno dei giochi più adorabili di sempre: trama e data d’uscita

Giochi adorabili non se ne vedono moltissimi ma questo potrebbe diventare un nuovo fenomeno globale…

9 ore ago

C’è un nuovo gioco gratuito che somiglia tantissimo a una delle migliori esclusive Playstation

Grandi notizie per tutti i videogiocatori che possono ora mettere le mani su un nuovo…

10 ore ago

Brutte notizie per tutti i giocatori Playstation: ben 19 giochi stanno per sparire dalle vostre librerie

Ci sono degli aggiornamenti non proprio positivi per tutti i videogiocatori che hanno una Playstation:…

13 ore ago

Se ami davvero il tuo gatto allora devi prendere questo videogioco: c’è anche una sorpresina per lui

Arriva un videogioco che al suo interno presenta una sorpresina tutta pensata per il tuo…

15 ore ago

Basta videogiochi cancellati: grossa novità in arrivo per proteggere te e i tuoi titoli preferiti

I tuoi videogiochi preferiti spariscono dopo un po'? Contro i videogiochi cancellati per i motivi…

16 ore ago

Whatsapp smette completamente di funzionare se lo fai: migliaia di segnalazioni online, è allarme

Attenzione a quello che fai con il tuo Whatsapp, se commetti questo errore rischi di…

17 ore ago