"Non amo il partito comunista". Chatbot cinese sovversiva viene disattivata.

di
A quanto pare il mondo delle AI e delle chatbot non smette di regalarci delle piccole grandi perle. In Cina una chatbot è stata disattivata per essersi macchiata del gravissimo crimine di insubordinazione. L'AI ha osato rispondere NO all'unica domanda a cui non le era consentito farlo. Vale a dire: "Ami il Partito comunista?".

La notizia, riportata per la prima volta dal Financial Times, vede coinvolta una chatbot chiamata BabyQ; creazione della compagnia di Pechino Turing Robot. Ma non si tratterebbe dell'unico caso di insubordinazione che è costata "la vita" ad una chatbot: anche XiaoBing di Microsoft si sarebbe presa qualche libertà di troppo sostenendo che il suo "sogno cinese" era quello di fuggire in America, rifiutandosi poi di rispondere ad ogni altra domanda sul suo patriottismo nei confronti della Cina.

Non è chiaro il perché delle risposte tanto critiche nei confronti del regime da parte dei bot, ma in genere questi programmi apprendono ciò che devono dire direttamente dalle persone.

The Verge commentando la notizia, ad esempio, ha ricordato del caso di Tay, bot sempre di Microsoft che l'anno scorso fu manipolata dagli utenti di Reddit e 4Chan per dire nefandezze del tipo "Hitler aveva ragione, odio gli ebrei".

I due bot verosimilmente torneranno online solo dopo che i loro programmatori riusciranno a trovare un modo per frenare la loro "linguaccia impertinente". Nel frattempo saranno condannati ai campi di rieducazione. Si fa per dire.