La crisi dei mercati digitali sta convincendo sempre più Big Tech ad inserirsi nella corsa alle tecnologie dell’intelligenza artificiale. L’ultima ad aggiungersi alla lista è Amazon, la più grande Internet company al mondo. Il colosso di Seattle ha lanciato la sfida a Microsoft, Alphabet, IBM e Baidu con Bedrock, il progetto di punta di AWS (Amazon Web Services), la divisione cloud del gruppo statunitense. Ma quale sarà la particolarità dell’IA generativa del colosso dell’e-commerce?
Bedrock, cos’è e come funzionerà l’IA di Amazon
Presentata ufficialmente il 13 aprile scorso, Bedrock è la risposta di Amazon a ChatGPT: un sistema “relativamente economico” che permetterà a tutte le aziende di sfruttare gli LLM, i modelli di linguaggio di grandi dimensioni (Large Language Model) che utilizzano la programmazione neurolinguistica (PNL) per comprendere e generare un linguaggio simile in tutto e per tutto a quello umano. I clienti AWS avranno accesso a diversi modelli di IA con API di facile utilizzo: oltre a quelli forniti dalle startup AI21 e Anthropic (Jurassic-2 per la generazione di testi in spagnolo, francese, tedesco, portoghese, italiano e olandese e Claude per conversazioni, risposte alle domande e automazione dei flussi di lavoro) e ad un sistema di Stability AI chiamato Stable Diffusion che permette di trasformare testo in immagini e loghi, due tra questi sono stati sviluppati “in casa” da Amazon e si chiamano Titan.
Titan consente agli sviluppatori di integrare nei propri programmi i sistemi di IA conversazionale e generatori di testo. Il primo modello di elaborazione del linguaggio naturale replica lo schema di OpenAI con ChatGPT e permette di ottimizzare la conversazione e la strutturazione di articoli, relazioni, e-mail, post, codici e quant’altro, comprese immagini, video e audio; il secondo è progettato nello specifico per accurate funzioni di ricerca ed è uno strumento flessibile: può essere adattato, “addestrato” e personalizzato a proprio piacimento dai clienti per le loro specifiche esigenze.
Quanto costerà Bedrock di Amazon?
Al momento non è stato rivelato il costo preciso del servizio: l’anteprima è limitata e c’è una rigorosa lista d’attesa per le imprese candidate e selezionate. Amazon non ha ancora annunciato quali sono le aziende diventate clienti ufficiali. Stando alle indiscrezioni trapelate, le prime realtà che hanno cominciato a sperimentare la versione Beta di Bedrock sono Accenture, C3.AI, Deloitte e Pegasystems. In una recente intervista concessa alla Faz, il manager Matt Garman ha spiegato che Amazon sta sviluppando da diversi anni l’IA generativa. Il vicepresidente e responsabile vendite e marketing di AWS ha aggiunto che arriveranno presto altri modelli, sia targati AWS che dei partner. Tra le altre startup con cui la divisione collabora ci sono Hugging Face, Stability e Runway AI.
Non ci sarà un unico modello per l’IA di Amazon: i clienti potranno combinare le varie applicazioni, che siano Titan, Jurassic-2, Claude, Stable Diffusion e quelle che verranno. Garman ha addirittura aperto alla possibilità di una collaborazione per integrare i programmi di Google e OpenAI nella piattaforma. Il vantaggio competitivo di Amazon rispetto ai concorrenti sarebbe la sicurezza dei dati sensibili: l’ecosistema di Jeff Bezos promette l’elaborazione di un’interfaccia all’interno di una rete privata, un IP sicuro e protetto senza mai lasciare l’ambiente AWS personale. In questo modo, sarebbe possibile limitare il trasferimento dei dati aziendali e tutelare la privacy e la proprietà intellettuale degli utenti, sicuri che l’algoritmo processa e rielabora le informazioni senza violare il diritto d’autore. Al tempo stesso, si eviterebbero pericolose fughe di dati nell’eventualità di impiegati “sbadati”.
La sfida delle GPU personalizzate
AWS fornisce anche modelli open source all’interno di Jumpstart di SageMaker, consentendo ai clienti di gestire i modelli all’interno del loro VPC (virtual private cloud) o nella rete di proprietà. Garman si è spinto ancora oltre in una intervista al magazine web SiliconANGLE. In futuro AWS potrebbe aprirsi allo sviluppo delle CPU per computer e server e alle GPU per i data center. Già adesso AWS vanta i cluster GPU con le migliori prestazioni nel cloud e a lungo termine. Non solo: per ovviare al massiccio consumo di energia necessario alla potenza di calcolo richiesta, Amazon Web Services alimenterà tutti i suoi data center globali con energia rinnovabile entro il 2025. “Vorremo pensare a come ridimensionare le GPU in molti modi diversi e credo che qui entrerà in gioco il nostro silicio personalizzato e progettato su misura”, ha anticipato Garman.
I modelli di intelligenza artificiale generativa devono essere addestrati dagli sviluppatori e questo training richiede enormi (e costose) risorse di calcolo. Già con le istanze Trn1 di Amazon Elastic Compute Cloud (EC2), basate sugli acceleratori AWS Trainium, l’addestramento di deep learning di Amazon è ad alte prestazioni, rapido e conveniente. L’obiettivo di Garman è fare un ulteriore passo in avanti e “ridimensionare le GPU in svariate modalità differenti”. “Prodotti come Trainium hanno il vero potenziale per aiutare i clienti ad abbassare i costi operativi nel tempo, ridurre l’impatto energetico e migliorare le prestazioni. È un vantaggio competitivo per i nostri utenti e per la nostra azienda, avere quell’opzione a basso costo per i clienti che in alcuni casi può effettivamente superare le prestazioni che una normale GPU può fare”, ha concluso il manager.