Google I/O è la conferenza annuale organizzata da Google a Mountain View, in California, rivolta a sviluppatori Web e incentrata sulle novità e prospettive per lo sviluppo di applicazioni web e mobile attraverso Google e sulle relative tecnologie come Android, Chrome, Chrome OS, Google Web Toolkit, Google App Engine e altre. La “I” e la “O” stanno per Input/Output e per “Innovation in the Open”. Tenutasi per la prima volta nel maggio 2008, Google I/O è simile ad altre conferenze, sempre tenute da Google, come il Google Developer Day.
Google ha organizzato il suo I/O 2023 il 10 Maggio, una giornata ricca di eventi in cui sono stati annunciati alcuni aggiornamenti piuttosto importanti e sono stati mostrati e descritti gli ultimi progressi dell’azienda nell’intelligenza artificiale. Vediamo i principali.
Tre nuove aggiunte alla gamma Pixel
Il prodotto Pixel di Google è stato al centro dell’attenzione durante l’appuntamento del 10 Maggio, poiché la società ha lanciato tre nuovi prodotti: Pixel Fold, Pixel Tablet e Pixel 7A. Il Pixel Fold, proposto in lancio a $1.799 segna il primo ingresso di Google nel settore degli schermi pieghevoli, con un display esterno OLED da 5,8 pollici che si apre per rivelare un display più grande da 7,6 pollici che è anche un pannello OLED con una frequenza di aggiornamento di 120Hz. Il nuovo Pixel Tablet da 11 pollici ha un prezzo di $499. Il dispositivo funziona sia come tablet tipico che come display intelligente grazie al dock di ricarica magnetico che funge anche da altoparlante. Infine, Google ha aggiornato la sua gamma di fascia media della serie A con l’aggiunta del Pixel 7A. Proprio come Pixel Fold e Pixel Tablet, il dispositivo è dotato del chip Tensor G2 di Google, insieme a un display 1080p da 6,1 pollici che può funzionare fino a 90Hz. La versione base del telefono costa $499, ma alcuni gestori avranno un’opzione più costosa da $549 che supporta le onde millimetriche (mmWave).
La funzione di Ricerca Google ottiene “istantanee” basate sull’intelligenza artificiale
La Ricerca Google sta ricevendo un importante aggiornamento chiamato Search Generative Experience. Per il momento Google SGE è disponibile solo negli USA e solo per gli iscritti al programma di test del software, chiamato Search Labs. Gli utenti possono registrarsi per partecipare facendo clic sul pulsante Labs nell’app mobile di Google e Chrome Beta (una versione di Chrome che fornisce l’accesso alle funzionalità imminenti). Gli utenti verranno avvisati via e-mail quando riceveranno l’accesso al programma. SGE è una versione del motore di ricerca che aggiunge un nuovo pannello alle pagine dei risultati di ricerca. Il pannello viene visualizzato sopra i risultati e contiene testo generato dall’intelligenza artificiale. Include anche altri elementi, tra cui uno strumento per porre domande di follow-up. Se un utente cerca informazioni su una determinata destinazione di viaggio, il pannello SGE può fornire una panoramica dettagliata del luogo in linguaggio naturale. Inoltre, elenca i siti Web da cui provengono le informazioni. Una scorciatoia sotto il testo consente agli utenti di porre domande di follow-up suggerite dall’intelligenza artificiale o di scrivere le proprie. Queste istantanee AI sono alimentate dalla versione aggiornata del Large Language Model (LLM) di Google chiamato PaLM 2. Il nuovo modello sta già alimentando 25 servizi Google, incluso il chatbot Bard dell’azienda, e presenta miglioramenti nel ragionamento, nella codifica e nella traduzione.
Si tratta quindi del nuovo motore di ricerca Google, di un nuovo modo di affrontare i risultati di ricerca. Ma come interagiremo con Google SGE? A differenza del caos multipersonalità di Bing o dell’allegra interfaccia di ChatGPT, l’intelligenza artificiale della ricerca di Google non sta cercando di sembrare umana o affabile. Big G non vuole che Google SGE abbia opinioni, o utilizzi la parola “io” quando risponde alle domande. Di fatto, tutti vogliamo che il bibliotecario a cui ci rivolgiamo ci capisca davvero. Ma la maggior parte delle volte, quando andiamo in biblioteca, il nostro obiettivo è che ci aiutino con qualcosa, non che siano nostri amici. E questa è l’atmosfera che Google sta cercando di offrire. È più cha altro un riconoscimento del momento particolare in cui ci troviamo oggi: i modelli linguistici di grandi dimensioni sono improvvisamente ovunque, sono molto più utili di quanto la maggior parte delle persone avrebbe immaginato, eppure esiste in loro oggi una dicotomia tra “fattuale” e “fluido”. Possiamo costruire un sistema che sia fattuale, vale a dire che ci offra molte informazioni valide e fondate. Oppure possiamo costruire un sistema che sia fluido, totalmente senza soluzione di continuità e umano, quasi “amichevole”. Forse un giorno saremo in grado di avere entrambi. Ma in questo momento i due sistemi non vanno d’accordo e Google sta cercando di orientarsi nella direzione delle risposte e interazioni fattuali. Per come la vede l’azienda, è meglio avere ragione che essere interessanti, è meglio la verità della simpatia. Aspettiamoci quindi di interagire con una intelligenza artificiale precisa, efficiente, efficace ma ancora un po’… “freddina”.
Bard è ora disponibile per (quasi) tutti
Google Bard è un chatbot basato sull’intelligenza artificiale generativa e sull’apprendimento automatico, sviluppato da Google e creato partendo dalla piattaforma AI principale della casa, LaMDA (acronimo per Language Model for Dialogue Applications). A torto considerato “la risposta di Google a ChatGPT” (dato che Google ha iniziato a sviluppare ricerche sull’AI ormai 10 anni or sono ed ha quindi un primato di fatto in questo settore, anche se è rimasto “silenzioso” in attesa di completare il periodo di test), Bard è stato pubblicato in fase beta nel marzo 2023. Il nome del chatbot trae origine da Bardo di Avon, appellativo con cui era noto William Shakespeare. Dopo aver inizialmente limitato l’accesso a pochi beta tester, il 21 marzo 2023 Google ha rilasciato una versione “leggera” di Bard, disponibile inizialmente solo negli Stati Uniti e nel Regno Unito. Al momento (giugno 2023) è disponibile in 3 lingue (US English, Giapponese e Coreano) ed in 180 Paesi, ma si prevede che in pochi mesi sarà esteso a livello globale ed in tutte le lingue.
Help me write in GMail
Immaginiamo di essere seduti alla scrivania, e di fissare una bozza di email vuota. Abbiamo un’idea di cosa vogliamo dire, ma le parole semplicemente non ci vengono fuori bene. È qui che entra in gioco Help me Write (Aiutami a scrivere), l’ultima aggiunta all’arsenale di strumenti di Gmail progettati per semplificarci la vita. Usando il potere dell’intelligenza artificiale, questa elegante funzionalità suggerisce frasi durante la digitazione. Le sue capacità però vanno oltre: può persino consigliare interi paragrafi per aiutarci ad esprimere il nostro punto di vista in modo efficace ed efficiente. E se abbiamo bisogno di comunicare con qualcuno che parla una lingua diversa, Help me Write è pronto ad aiutarci. Può tradurre le e-mail in altre lingue, rendendo la comunicazione attraverso i confini (e le lingue) un gioco da ragazzi. Sebbene Help me Write sia ancora in beta test, è disponibile per tutti gli utenti Gmail.
Nuove opzioni di personalizzazione basate su AI anche per Android
L’intelligenza artificiale non arriva solo per la Ricerca Google. Big G ha annunciato che porterà anche nuove funzionalità basate sull’intelligenza artificiale su Android. Una di queste funzionalità, chiamata Magic Compose, vivrà all’interno dell’app Messaggi di Android e darà la possibilità di rispondere ai messaggi utilizzando testi suggeriti dall’intelligenza artificiale.
Sempre su Android, ecco una funzionalità che consentirà di utilizzare l’AI per creare lo sfondo dello schermo. Invece di scegliere tra una serie di opzioni predefinite, saremo presto in grado di descrivere un’immagine, che il dispositivo genererà utilizzando il modello di transizione da testo a immagine di Google. Inoltre, il mese prossimo Google lancerà una funzionalità esclusiva per Pixel che consente di personalizzare il dispositivo con un nuovo “sfondo cinematografico” che aggiunge profondità a una delle foto esistenti.
Nuova visualizzazione immersiva per i percorsi in GoogleMaps
Sin dai primi giorni di Street View, l’intelligenza artificiale ha unito miliardi di immagini panoramiche, in modo che le persone possano esplorare il mondo dal proprio dispositivo. All’I/O dello scorso anno è stato presentato Immersive View, che utilizza l’intelligenza artificiale per creare una rappresentazione ad alta fedeltà di un luogo, in modo che possiamo sperimentare l’esperienza di “camminarci dentro” prima di visitarlo. Ora la stessa tecnologia è stata espansa per fare ciò che GMaps sa fare meglio: aiutarci ad arrivare dove vogliamo. Google Maps fornisce 20 miliardi di chilometri di indicazioni stradali ogni giorno, ovvero un sacco di viaggi/itinerari/percorsi. Ora immaginiamo se potessimo vedere l’intero viaggio in anticipo. Con Immersive View per i percorsi è possibile, sia che stiamo camminando, andando in bicicletta o guidando.
Diciamo che ci troviamo a New York City e vogliamo fare un giro in bicicletta. Maps ci ha dato un paio di opzioni vicino a dove ci troviamo. Il percorso proposto sul lungomare sembra panoramico, ma prima vogliamo farci un’idea, quindi facciamo clic su Immersive View per i percorsi. È un modo completamente nuovo di guardare al nostro viaggio. Sono disponibili anche ulteriori informazioni. Possiamo controllare la qualità dell’aria, il traffico e il meteo e vedere come potrebbero cambiare.
Immersive View per i percorsi inizierà a essere implementato durante l’estate 2023 e verrà lanciato in 15 città, tra cui Londra, New York, Tokyo e San Francisco, entro la fine dell’anno.
Un nuovo e migliorato dispositivo indossabile arriverà entro la fine dell’anno
Anche se Wear OS 3 non è ancora stato completamente implementato, Google si sta già preparando per Wear OS 4. Google ha annunciato che il sistema operativo aggiornato avrà una durata della batteria migliorata, un modo per gli utenti di eseguire il backup e ripristinare i propri orologi, e nuove funzionalità di accessibilità. Inoltre, Wear OS 4 sta migliorando le integrazioni per la Smart Home che permetteranno di regolare l’illuminazione, controllare i media e vedere anteprime animate delle notifiche della fotocamera, tutto sul dispositivo indossato sul proprio polso. Wear OS 4 sarà disponibile entro la fine dell’anno.
Il lancio dell’app Google Home in versione rinnovata
L’app Google Home riprogettata, fino al 10 maggio disponibile in anteprima solo su invito, a partire da giovedì 11 maggio è stata resa accessibile senza restrizioni. L’app revisionata presenta alcuni importanti miglioramenti, tra cui una migliore interfaccia della fotocamera, una nuova scheda Preferiti e il supporto per molti nuovi tipi di dispositivi.
La nuova funzione perspectives consente di ottenere risposte da persone reali
Google deve aver capito che un numero enorme di utenti sta aggiungendo Reddit alle proprie ricerche perché sta lanciando la nuova funzione Perspectives, che fornisce risposte da Reddit, Stack Overflow, YouTube, blog personali e altri siti.
Google Foto integra un Magic Editor basato sull’intelligenza artificiale
Google Foto diventa come Photoshop con il nuovo Magic Editor, solo che fa tutto l’intelligenza artificiale! La nuovissima funzione di modifica fotografica basata su AI consente di apportare modifiche piuttosto significative a una foto, come migliorare il cielo, spostare una persona o un oggetto e eliminare persone o oggetti sullo sfondo. Arriverà in accesso anticipato per utenti Pixel selezionati, entro la fine del 2023.
Google introduce Duet AI per Workspace
Durante il Google I/O 2023, la casa ha anche annunciato un nuovo nome per la suite di strumenti AI per Google Workspace che interesserà Documenti, Fogli, Presentazioni, Meet e Gmail: Duet AI. Mentre queste funzionalità di Workspace consentono di fare cose come comporre un’e-mail o generare immagini dal testo in Presentazioni, al momento sono disponibili solo per coloro che si iscrivono alla sua lista d’attesa.
Google I/O Externded
Chi fosse interessato ad avere anche durante l’anno novità circa le ultime soluzioni, prodotti e tecnologie per sviluppatori di Google, può iscriversi a Google I/O Extended. Sono previsti incontri locali in numerose città del mondo, programmi di informazione ed aggiornamento, webinar con colloqui tecnici, sessioni di domande e risposte, presentazioni di esperti sviluppatori Google, discussioni con appassionati di tecnologia locali.
E.P.
Tratto e tradotto da: theverge.com