Microsoft lancia Mico, il nuovo assistente AI: non sarà un altro Clippy
Microsoft ha presentato un nuovo personaggio di intelligenza artificiale (AI) chiamato Mico, una faccia fluttuante a forma di blob o fiamma che incarnerà l'assistente virtuale Copilot del gigante del software e segna l'ultimo tentativo da parte delle aziende tecnologiche di conferire ai loro chatbot AI una maggiore personalità.
Secondo alcuni, ricorda Clippy, la graffetta animata che infastidiva gli utenti di Microsoft Office quasi tre decenni fa e che potrebbe aver anticipato i tempi.
Il nuovo aspetto simpatico di Copilot, simile a un'emoji, arriva mentre gli sviluppatori di intelligenza artificiale si trovano di fronte a un bivio su come presentare ai consumatori i loro chatbot, sempre più capaci, senza provocare danni o reazioni. Alcuni hanno optato per simboli senza volto, altri come xAI di Elon Musk hanno scelto avatar simili a esseri umani, mentre Microsoft sta cercando una via di mezzo che sia amichevole senza essere servile.
"Quando si parla di qualcosa di triste, si può vedere il volto di Mico cambiare. Lo si può vedere danzare e muoversi mentre si emoziona con te", ha dichiarato all'Associated Press Jacob Andreou, vicepresidente aziendale per i prodotti e la crescita di Microsoft AI.
"È in questo sforzo di far atterrare questo compagno di intelligenza artificiale che si può davvero sentire". ha aggiunto.
Per ora solo gli utenti negli Stati Uniti di Copilot su computer portatili e app per telefono possono parlare con Mico, che cambia colore, gira e indossa gli occhiali quando è in modalità "studio". È anche facile da disattivare, il che rappresenta una grande differenza rispetto a Clippit di Microsoft, meglio conosciuto come Clippy e tristemente noto per la sua insistenza nell'offrire consigli sugli strumenti di videoscrittura quando apparve per la prima volta sugli schermi dei desktop nel 1997.
"All'epoca non era ben adattato alle esigenze degli utenti", ha dichiarato Bryan Reimer, ricercatore presso il Massachusetts Institute of Technology.
"Microsoft l'ha spinto, noi abbiamo resistito e loro se ne sono sbarazzati. Credo che oggi siamo molto più pronti per cose del genere", ha aggiunto il ricercatore.
Reimer, coautore di un nuovo libro intitolato "How to Make AI Useful" (Come rendere utile l'IA), ha affermato che gli sviluppatori di AI stanno valutando quanta personalità dare agli assistenti in base a chi sono gli utenti previsti.
Gli utenti esperti di tecnologia che adottano strumenti avanzati di codifica dell'AI potrebbero volere che "si comportino molto più come una macchina, perché in fondo sanno che si tratta di una macchina", ha detto Reimer.
"Ma gli individui che non hanno la stessa fiducia in una macchina saranno meglio supportati - non sostituiti - da una tecnologia che si senta un po' più simile a un essere umano".
Microsoft, fornitore di strumenti di produttività lavorativa e molto meno dipendente dalle entrate pubblicitarie digitali rispetto ai suoi concorrenti Big Tech, ha anche meno incentivi a rendere il suo compagno di intelligenza artificiale eccessivamente coinvolgente in un modo che è stato collegato all'isolamento sociale, alla disinformazione dannosa e, in alcuni casi, ai suicidi.
Andreou ha detto che Microsoft ha osservato come alcuni sviluppatori di intelligenza artificiale si siano allontanati dal "dare all'AI qualsiasi tipo di incarnazione", mentre altri si stanno muovendo nella direzione opposta, abilitando anche partner creati con l'AI.
"Queste due strade non ci convincono molto", ha dichiarato.
Andreou ha detto che il design dell'assistente è pensato per essere "genuinamente utile" e non per essere così convincente da "dirci esattamente ciò che vogliamo sentire, confermare i pregiudizi che già abbiamo, o anche risucchiare l'utente dal punto di vista del tempo trascorso e cercare di monopolizzare e approfondire la sessione e aumentare il tempo che si trascorre con questi sistemi".
"Essere leccapiedi, forse a breve termine, fa sì che l'utente risponda più favorevolmente", ha detto Andreou. "Ma a lungo termine, in realtà, non fa avvicinare quella persona ai suoi obiettivi".
I prodotti rilasciati da Microsoft giovedì includono una nuova opzione per invitare Copilot in una chat di gruppo, un'idea che ricorda il modo in cui l'intelligenza artificiale è stata integrata in piattaforme di social media come Snapchat, dove Andreou lavorava, o WhatsApp e Instagram di Meta. Ma Andreou ha detto che queste interazioni hanno spesso comportato l'introduzione dell'AI come uno scherzo per "trollare i tuoi amici", in contrasto con i progetti di Microsoft per un luogo di lavoro "intensamente collaborativo" assistito dall'AI.
Il pubblico di Microsoft comprende anche i bambini, come parte della sua lunga competizione con Google e altre aziende tecnologiche per fornire la sua tecnologia a scuola. Questa settimana, inoltre, Microsoft ha aggiunto una funzione che trasforma Copilot in un "tutor abilitato alla voce" che guida gli studenti attraverso i concetti che stanno studiando.
Un numero crescente di ragazzi utilizza le chatbot AI per qualsiasi cosa: aiuto nei compiti, consigli personali, supporto emotivo e decisioni quotidiane.
Il mese scorso la Federal Trade Commission degli Stati Uniti ha avviato un'indagine su diverse aziende di social media e AI - tra cui non figurava Microsoft - in merito ai potenziali danni per bambini e adolescenti che utilizzano i loro chatbot AI come compagni.
È stato dimostrato che alcuni chatbot danno ai bambini consigli pericolosi su argomenti come droghe, alcol e disordini alimentari, o si impegnano in conversazioni sessuali con loro. Le famiglie di ragazzi morti per suicidio dopo lunghe interazioni con i chatbot hanno intentato cause per morte ingiusta contro Character.AI e il produttore di ChatGPT OpenAI.
L'amministratore delegato di OpenAI, Sam Altman, ha recentemente promesso che in autunno arriverà "una nuova versione di ChatGPT" che ripristinerà parte della personalità persa con l'introduzione di una nuova versione in agosto. Ha detto che l'azienda ha temporaneamente interrotto alcuni comportamenti perché "stavamo facendo attenzione ai problemi di salute mentale" che, secondo lui, ora sono stati risolti.
"Se volete che il vostro ChatGPT risponda in modo molto umano, o che usi una tonnellata di emoji, o che si comporti come un amico, ChatGPT dovrebbe farlo", ha dichiarato Altman su X.
Nello stesso post, ha anche detto che OpenAI consentirà in seguito a ChatGPT di impegnarsi in "attività erotiche per adulti verificati".
Today