AI+Bing%2C+Microsoft+ne+limita+l%26%238217%3Buso%3A+il+motivo+lascia+tutti+spiazzati
videogiochicom
/ai-bing-microsoft-ne-limita-luso-il-motivo-lascia-tutti-spiazzati/amp/
Fuorigioco

AI Bing, Microsoft ne limita l’uso: il motivo lascia tutti spiazzati

Pare che troppe domande lo mandino in tilt. E che, a seconda del tono con cui ci si rivolge al sistema ponendo domande e quesiti, possa rispondere con una sintassi prepotente e addirittura offensiva. Per questo motivo, Microsoft tenta di correre ai ripari: da un lato, rivolgendosi direttamente agli utenti e, dall’altro, mettendo mano al chatbot. Scopriamo di che cosa si tratta.

Fonte: Pixabay – VideoGiochi.com

E’ solo di pochi giorni fa la notizia delle risposte definite scorbutiche e maleducate avanzate dal chatbot ChatGPT di OpenAI ad alcuni utenti, “colpevoli” di aver formulato troppe domande. E, secondo quanto trapelato dalle prime dichiarazioni di Microsoft riguardo all’accaduto, di averle formulate con un tono che avrebbe causato le repliche piccate ed offensive da parte del sistema.

Come a dire: se gli richiedi troppe informazioni, va in tilt; e se ti rivolgi al sistema con un tono poco consono, ti risponderà per le rime, o anche peggio. E così Microsoft ed OpenAI corrono ai ripari e, in una nota rilasciata lo scorso 17 Febbraio, annunciano le misure riparatrici che hanno deciso di adottare.

In sostanza si tratta di una limitazione delle conversazioni che ogni utente potrà effettuare con l’intelligenza artificiale. Ogni giorno, i cosiddetti “scambi” (ovvero l’insieme di una domanda da parte dell’utente più una risposta da parte del sistema) potranno essere un massimo di 50, suddivisi in turni da massimo 5 scambi alla volta. In questo modo, l’intelligenza artificiale potrà non andare in tilt e mantenere il suo aplomb.

Le dichiarazioni di Microsoft riguardo all’accaduto e le richieste di feedback agli utenti

Fonte: Pixabay – VideoGiochi.com

Secondo quanto dichiarato ufficialmente da Microsoft, i casi a rischio sarebbero soltanto una contenutissima minoranza rispetto al totale: “Solo l’1% delle conversazioni prosegue per oltre 50 messaggi”, ha riportato il colosso di Redmond tramite il blog ufficiale di Bing.

E, sempre nella nota, si é poi rivolta direttamente agli utenti per suggerire le nuove modalità di utilizzo consentito: “Quando una conversazione avrà raggiunto 5 scambi, ti verrà chiesto di cambiare argomento. Alla fine di ogni sessione, sarà necessario pulire la cronologia per evitare di confondere il modello”.

Infine, la richiesta di continuare a fornire feedback per comprendere in profondità le criticità più significative riscontrate dall’utenza, al fine di proseguire con le implementazioni necessarie a rendere il chatbot sempre più affidabile e stabile. Senza dubbio, comunque, i problemi e le “sorprese” di ChatGPT non finiranno qui.

Gian Lorenzo Lagna

Recent Posts

Come sbloccare gratis ed equipaggiare le emote in Marvel Rivals: rendi ogni eroe davvero unico

Equipaggiare le emote in Marvel Rivals è un modo per personalizzare le partire e somiglia…

23 minuti ago

Ciri in The Witcher 4 ha superato la Prove delle Erbe ma sarà più debole: parla CDPR

Grandi aggiornamenti per tutti gli appassionati di videogiochi con CDPR che spiega quello che vedremo…

2 ore ago

Ricompense gratuite per scusarsi con i videogiocatori: tutti i regali di riscattare subito

Grandi notizie per tantissimi videogiocatori che possono mettere le mani su delle ricompense particolari che…

5 ore ago

Grandi notizie per i fan de Il Signore degli Anelli: c’è un regalo gratis per tutti

E' festa grande tra coloro che amano Il Signore degli Anelli grazie a questa sorpresa…

7 ore ago

Come sbloccare la nuova skin Lionel Messi in Fortnite: tutto quello che devi sapere

Dentro Fortnite puoi sbloccare skin di tantissimi personaggi: ora c'è anche la nuova skin di…

8 ore ago

Come sbloccare Shop Ticket subito e gratis su Pokemon Pocket: la guida veloce

Vuoi accumulare Shop Ticket per Pokemon Pocket senza troppi problemi? C'è un metodo facile per…

9 ore ago