Artificial Personality

Artifical personality

Una personalità artificiale (AP, acronimo dell’inglese Artificial Personality) è un insieme di caratteristiche, tendenze e peculiarità comportamentali assegnate a un personaggio di chatbot (un programma che simula la conversazione di un essere umano attraverso interazioni vocali o di testo), assistente digitale (un programma che comprende i comandi vocali in linguaggio naturale e svolge attività per l’utente), robot o videogioco.

L’obiettivo principale di aggiungere personalità alle entità digitali è incoraggiare gli utenti finali a interagire con i programmi a livello emotivo, oltre che logico.

Le personalità sono particolarmente significative per gli assistenti digitali attivati ​​dalla voce come Siri (l’assistente personale di Apple per dispositivi iOS, macOS, tvOS e watchOS che utilizza il riconoscimento vocale ed è alimentato da intelligenza artificiale), Alexa (l’assistente personale di Amazon alimentato da intelligenza artificiale, Google Assistant (l’assistente vocale di Google per dispositivi Android alimentato da intelligenza artificiale) e Cortana (l’assistente digitale di Microsoft, originariamente sviluppato per Windows Phone 8.1 ed incluso in Windows 10) perché sono destinati a prendere il posto degli assistenti umani. Google ha ingaggiato un team creativo per dare personalità alla sua assistente, mentre Siri è stato progettato appositamente per diventare un po ‘impertinente. Cortana è stata modellata su assistenti personali della vita reale e Alexa ora offre uno skill opzionale che le permette di essere irrispettosa.

La gente non si aspetta che il suo assistente digitale superi il test di Turing (un metodo di indagine per determinare se un computer è in grado o meno di pensare come un essere umano) e venga scambiato per un essere umano, ma gli sviluppatori hanno scoperto che l’aggiunta di stranezze alla personalità è qualcosa che gli utenti sembrano apprezzare. In genere, l’umorismo viene utilizzato per distogliere l’attenzione dell’utente dalle mancanze e dei limiti delle risposte programmate.
Mentre l’abilità di una AP di sussurrare, fare pause per aumentare l’enfasi, o regolare l’intonazione, ha permesso al programma di sembrare più colloquiale, i progettisti in realtà devono stare attenti a non rendere la personalità troppo umana e creare un effetto noto come “valle misteriosa”. L’effetto prende il nome dal modo in cui il livello di comfort dello spettatore cade quando gli androidi e le simulazioni audio / visive assomigliano molto all’uomo, ma non riescono ad essere del tutto convincenti.

Supponiamo che una azienda sia interessata ad un software per automatizzare alcune attività di assistenza clienti. Visita il sito web di un venditore, fornisce le informazioni di contatto per richiedere una demo del software in tempo reale e un addetto alle vendite invia un’email per dare tutte le informazioni di cui l’azienda potenziale cliente ha bisogno. Se non ottiene risposta a quell’e-mail, l’addetto alle vendite ne manda un altra il giorno successivo, e un’altra ancora il successivo – quest’ultima con scuse per aver disturbato e una faccina sorridente. Chi ha posto la domanda iniziale si sente un po’ imbarazzato e alla fine risponde a questo assistente di vendita, gentile e persistente, che però, a quanto pare, non è affatto una persona. È un chatbot.
Questo scenario sta già accadendo con piattaforme di assistenza virtuali come Conversica e, anche se non è ancora pervasivo, c’è un’alta probabilità che entro i prossimi cinque anni la “persona” che ti invia email su un prodotto o servizio al quale ti sei mostrato interessato sia un chatbot di intelligenza artificiale (AI). Tutto questo grazie a un salto in avanti nelle tecnologie che capiscono l’intento del cliente e che possono generare dialoghi per simulare conversazioni naturali.

Gartner, la società leader mondiale nella consulenza strategica, ricerca e analisi nel campo dell’Information Technology, prevede che l’AP sarà pervasiva in tutti i nuovi prodotti entro il 2020, con tecnologie che includono capacità di linguaggio naturale, reti neurali profonde e capacità di conversazione. Molti altri analisti condividono questa aspettativa. Le tecnologie che racchiudono il termine generico di intelligenza artificiale – tra cui riconoscimento di immagini, machine learning, chatbots AI e riconoscimento vocale – saranno presto diffuse ovunque nelle applicazioni di business in quanto gli sviluppatori potranno accedervi tramite piattaforme come IBM Watson Conversation API e Google Cloud natural Language API.
“Se ogni applicazione aziendale che utilizziamo diventerà un’applicazione intelligente nei prossimi cinque anni, chi comprerà un altro tipo di applicazione a quel punto?” ha chiesto Dave Schubmehl, direttore della ricerca, sistemi cognitivi e analisi dei contenuti per IDC.

Quali le trappole per AP e AI?

Affermare che tutti i prodotti includeranno l’AI entro brevissimo tempo potrebbe essere improprio, considerata complessità e la profondità degli obiettivi dell’intelligenza artificiale. I semi dell’AI hanno pderò già messo radici in molte app aziendali e presto saranno profondamente intrecciati nell’ecosistema delle applicazioni. Le reti neurali profonde – la tecnologia alla base dei progetti di intelligenza artificiale – insieme al riconoscimento delle immagini, al riconoscimento vocale e all’elaborazione del linguaggio naturale, sono classificatori di contenuti efficienti se correttamente configurati e alimentati con dati su modelli analitici, secondo Tom Austin, un VP di Gartner che ha condotto un recente webinar sullo stato dell’AI.

A dire il vero, le aziende sono ancora lontane dall’ottenere il proprio Androide alla Star Trek. Ma questo non è ciò di cui le aziende hanno bisogno e che chiedono all’AI, e le fantasie fantascientifiche sono ciò che spinge le persone verso il tipo di “pensiero antropomorfico” che genera false aspettative su cosa sia l’AI e cosa possa fare, secondo Austin. Il VP di Gartner ha consigliato alle aziende di fare attenzione ai promotori di AI che “tessono storie seducenti, raccontando i successi e nascondendo i fallimenti”. E ancora, “Le macchine intelligenti non pensano, non hanno il buonsenso umano … non sono auto-consapevoli, non sono consapevoli”, ha detto Austin nel webinar. “Le persone che vanno in giro a parlare di queste cose vi stanno ingannando, o sono poco informate sulla realtà”.

In effetti, molti venditori di tecnologia dicono di fornire Intelligenza Artificiale, ma usano il termine impropriamente. In realtà, gli sviluppatori di app hanno iniziato a sostituire le regole tradizionali e l’euristica con modelli di dati statistici generati automaticamente, ha spiegato Schubmehl di IDC. Questa modifica si traduce in applicazioni molto più intelligenti. “Ai vecchi tempi, avevi bisogno di un set di regole per dire ‘se succede questo, fai quello.’ Le applicazioni che non si basano su regole ed euristica, ma fanno affidamento su un modello di dati che proviene da dati validi che possono effettivamente auto-correggersi come parte del loro apprendimento “, ha affermato Schubmehl. “L’idea è che questi sistemi diventano sempre più intelligenti, e più capaci, in cose come prevedere quando una componente rischia di fallire”.

IBM e Google fanno progredire la conversazione AI

Diversi livelli di intelligenza artificiale sono ora sul mercato. Siri di Apple e Cortana di Microsoft sono essenzialmente motori di ricerca verbali in quanto non possono rispondere a stringhe di domande e non comprendono il contesto. Nuove piattaforme di conversazione delle famiglie Google e IBM possono invece fare questo. La Conversation API di IBM si chiama Watson ed è disponibile per gli sviluppatori, mentre Google ha lanciato due prodotti di Cloud Machine Learning in versione beta questa estate: l’API  e l’API Cloud Speech. Con queste API, le aziende possono aggiungere un’interfaccia di elaborazione del linguaggio naturale a un’app aziendale per ricavare significato e sentimenti da ciò che i loro clienti scrivono su prodotti e servizi sul web. Possono inoltre automatizzare le interazioni con gli utenti finali tramite chatbot AI.

Schubmehl di IDC ha affermato che la voce sarà presto l’interfaccia principale, dal momento che le app di riconoscimento vocale e di conversazione miglioreranno sempre più. I sistemi di conversazioni di oggi possono consentire a uno sviluppatore di creare un chatbot AI che possa avere “una conversazione ragionevole”, ha affermato. Questo nuovo livello di tecnologia della conversazione va oltre i sistemi di risposta vocale interattiva, per offrire alle aziende una maggiore flessibilità nel modo in cui rispondono alle domande dei clienti e aumentare la percentuale di domande che sono in grado di gestire, ha spiegato Schubmehl. Questo è il risultato di decenni di ricerca sui sistemi conversazionali e sul rafforzamento degli algoritmi sviluppati decenni fa, ha spiegato il Direttore della piattaforma IBM Watson Steve Abrams. “Non voglio che nessuno pensi che questo sarà un successo da un giorno all’altro, ma siamo a un punto critico … e stiamo assistendo alla rapida introduzione di nuove applicazioni”, ha detto Abrams.

Welltok Inc., un partner IBM, non ha ancora messo in atto la Watson Conversation API. Tuttavia, la società utilizza già le tecnologie di apprendimento automatico e cognitivo Watson per guidare la sua piattaforma CaféWell Concierge, che fornisce ai consumatori nel settore sanitario le informazioni di cui hanno bisogno. Ad esempio, un cliente di un’assicurazione sanitaria può contattare il Concierge di Welltok per informazioni su una franchigia assicurativa o per assistenza nella comprensione di piani assicurativi scritti in un linguaggio non consumer-friendly. Welltok’s Concierge comprende l’intento della domanda e fornisce risposte comprensibili, ha affermato Jeff Cohen, co-fondatore e vice presidente dell’azienda, esperto di architettura funzionale. Nei casi in cui il Concierge non capisce una domanda del cliente, il sistema determina come disambiguare e produrre richieste di chiarimento, ha detto. “Questa è la parte difficile: fare interagire tutte queste tecnologie per simulare una conversazione con un chatbot umano e non con un chatbot artificiale”, ha detto Cohen. “L’azienda desidera un dialogo intelligente, un sistema in grado di apprendere e avere una conoscenza reale dell’interlocitore – il piano sanitario, l’ età, i dipendenti coperti, il tipo di copertura, altre domande che sono state poste in passato – per fornire una risposta personalizzata in modo che i clienti abbiano fiducia nella tecnologia. ”

L’intelligenza artificiale non è plug and play

Sebbene le nuove API di conversazione offrano agli sviluppatori un percorso più semplice per implementare l’Intelligenza Artificiale nelle loro applicazioni, questi sistemi cognitivi non sono plug and play. Richiedono un investimento significativo di tempo per ottenere i livelli di fiducia di cui le aziende hanno bisogno, ha detto Cohen. “Devi entrare con gli occhi ben aperti”, ha detto. “L’assistenza sanitaria è conservativa e non vogliamo mai dare una risposta sbagliata sui benefici per la salute, quindi abbiamo trascorso da tre a sei mesi in ciascuna area tematica fino a quando non ci siamo sentiti abbastanza sicuri da mettere il tutto di fronte agli utenti pilota”.

In effetti, un chatbot AI può solo fornire informazioni che fanno parte della sua knowledge base e, se gli fornisci informazioni errate, i clienti avranno da lui cattive informazioni, ha affermato Schubmehl di IDC. Le aziende non possono semplicemente chiamarlo il giorno in cui viene alimentato un sistema. Proprio come con i dipendenti, la formazione deve continuare per mantenere aggiornate le informazioni. Welltok ha settato un livello di confidenza minimo del 95%, quindi se il suo sistema cognitivo non sicuro di una risposta almeno al 95%, punta il cliente verso una risorsa diversa o verso un agente umano. “Non daremo a un cliente una risposta sbagliata, lo reindirizzeremo o non daremo nessuna risposta al posto di una sbagliata”, ha detto Cohen.

Il tempo e l’impegno che le aziende investono per ottenere un elevato livello di confidenza sono utili quando si riduce come conseguenza il volume delle chiamate e si libera il personale del call center per concentrarsi su problematiche più complesse del servizio clienti. Ma questo è il risultato più immediato. “Quello che stiamo cercando di realizzare – il progetto più ampio – è fare cose come fornire risposte intelligenti e personalizzate e fornire una giusta guida: più che una semplice risposta alla domanda di un cliente, ma una guida verso risorse di cui potrebbe non essere a conoscenza”, ha detto Cohen.

Da dove cominciare con AP e AI

Esperti e utenti di AI avvertono le aziende di iniziare dal basso con i progetti di calcolo cognitivo. Questo significa scegliere un’area con confini ben definiti e affidarsi ad esperti in materia per insegnare al sistema ciò che i veri clienti chiedono e come lo chiedono, ha detto Austin di Gartner nel suo webinar. “Scegliete un’applicazione che possa essere valutata e analizzata in poco tempo”, ha detto. “Non dovete costruire una astronave … Tutto quello che dovete fare è insegnare al piccolo pesce rosso a nuotare attraverso lo stagno, forse un po’ di intelligenza va bene, ma sono da preferire le cose semplici a quelle complesse”.

Per le aziende senza team di sviluppo o con risorse IT limitate, le app SaaS (software as a service) sono disponibili presso aziende come Conversica, che fornisce ai chatbots AI le istruzioni di base. KnowledgeVision, un fornitore di piattaforme di presentazione aziendale online, utilizza la piattaforma di assistente virtuale di Conversica per seguire i contatti a bassa priorità. L’assistente virtuale dell’app SaaS è una combinazione di tecnologie AI – una per decifrare l’intento, un’altra per isentimenti, una rete neurale e altro ancora – che funzionano insieme. L’assistente virtuale di KnowledgeVision segue i contatti in entrata via e-mail e crea una finestra di dialogo per raccogliere informazioni, che viene in definitiva trasmessa alle vendite o ai rappresentanti di marketing..

Gli aspetti positivi superano di gran lunga quelli negativi per i chatbot in AI. Ora le aziende sono in grado di seguire ogni contatto e gli assistenti virtuali sono impiegati 24/7 dato che non si ammalano mai. Se un potenziale cliente apre un’e-mail alle 1:00 e risponde, l’assistente virtuale risponde immediatamente. E i clienti non si rendono conto che questo venditore instancabile è in realtà un chatbot. I chatbot di vendita basati sull’intelligenza artificiale sono posizionati in sostituzione degli assistenti di vendita dal vivo responsabili di attività ripetibili, allo stesso modo in cui i word processor hanno sostituito i pool di digitazione. Le aziende devono potenziare questi tipi di dipendenti o pianificare uno sconvolgimento.

Posti di lavoro persi per gli esserì umani?

Anche se gli strumenti di calcolo cognitivo come il chatbot di vendita automatizzano alcune funzioni di lavoro, la tecnologia non arriverà mai a sostituire il team di vendita perché non è in grado di gestire attività nuove e complesse, secondo gli analisti del settore tecnologico e persino secondo le aziende che fornire piattaforme bot.

Forrester Research ha recentemente predetto che le tecnologie cognitive, come robot, Intelligenza Artificiale, machine learning e automazione, porteranno alla sostituzione di circa il 16% dei posti di lavoro negli Stati Uniti entro il 2025, mentre verrà crearto di conseguenza un 9% di posti di lavoro: una perdita netta di appena il 7%. Il personale di supporto amministrativo verrà ridotto per primo, mentre nuovi ruoli, come professionisti del monitoraggio dei robot, esperti del trattamento dati, specialisti dell’automazione e curatori di contenuti, costituiranno alcuni degli 8,9 milioni di nuovi posti di lavoro previsti negli Stati Uniti.

In definitiva, gli esseri umani e le macchine intelligenti sono fatti per stare insieme, per collaborare. Le reti neurali profonde possono identificare schemi che una persona probabilmente non noterebbe perché si verificano raramente. Tuttavia, la tecnologia è tutt’altro che perfetta e le macchine possono fornire conclusioni probabilistiche che richiedono controlli di qualità, ha dichiarato Tom Austin di Gartner durante un recente webinar. “C’è una simbiosi possibile/necessaria tra uomo e macchinain cui uomini e macchine si completano a vicenda”, ha detto Austin durante il webinar. “Tenetelo a mente e non dimenticatelo mai: il più grande valore che può derivare da tutto questo è la comprensione che le macchine stanno rendendo gli esseri umani più intelligenti e gli esseri umani stanno rendendo le macchine più intelligenti”.

Anche IBM è infatti molto attenta a non posizionare il suo gioiello, Watson, come sostituto per i dipendenti effettivi. Watson aumenta l’intelligenza umana, lavorando fianco a fianco con gli umani per migliorare la loro capacità di agire con sicurezza e autorità, secondo il direttore della piattaforma IBM Watson Steve Abrams. “E se potessi parlare con i dati?” Abrams ha detto. “Così, nello stesso modo in cui chiedi al tuo assistente lo stato di qualcosa, il tuo assistente potrebbe ottenerel’informazione dall’assistente virtuale – e nessuno è posto al di fuori del flusso produttivo.

E. P.

CHIUDI