E-Mail: [email protected]
- ChatGPT: volume messaggi +8 volte rispetto a novembre 2024.
- 36% aziende USA usa ChatGPT Enterprise, 14,3% usa Anthropic.
- Aumento di 19 volte nell'uso di Custom GPTs quest'anno.
Una Risposta Strategica alla Competizione
Il panorama dell’intelligenza artificiale è in fermento, con OpenAI che si posiziona al centro di una competizione sempre più accesa. Recentemente, l’azienda ha reso pubblici nuovi dati che evidenziano una crescita esponenziale nell’utilizzo dei suoi strumenti AI da parte delle imprese. In particolare, il volume di messaggi scambiati tramite ChatGPT è aumentato di otto volte rispetto a novembre 2024, con i lavoratori che dichiarano di risparmiare fino a un’ora al giorno. Questi risultati giungono a seguito di un memorandum interno “code red” inviato dal CEO Sam Altman, che segnalava la minaccia competitiva rappresentata da Google.
Questo tempismo sottolinea la strategia di OpenAI di riaffermare la propria leadership nel settore dell’AI enterprise, nonostante le crescenti pressioni. Sebbene circa il 36% delle aziende statunitensi siano clienti di ChatGPT Enterprise, rispetto al 14,3% di Anthropic (secondo Ramp AI Index), la maggior parte delle entrate di OpenAI deriva ancora dagli abbonamenti consumer, una base minacciata da Gemini di Google. OpenAI deve inoltre competere con Anthropic, il cui fatturato proviene principalmente dalle vendite B2B, e con i fornitori di modelli open-weight per i clienti enterprise.
L’azienda ha stanziato 1,4 trilioni di dollari per investimenti infrastrutturali nei prossimi anni, rendendo la crescita nel settore enterprise essenziale per il suo modello di business. Ronnie Chatterji, chief economist di OpenAI, ha sottolineato l’importanza dell’adozione e della scalabilità di queste tecnologie da parte delle aziende per ottenere i maggiori benefici economici, paragonandole a tecnologie trasformative come la macchina a vapore.
L’Integrazione Profonda dell’AI nei Flussi di Lavoro Aziendali
I dati di OpenAI suggeriscono che l’adozione dell’AI da parte delle grandi imprese non solo è in crescita, ma si sta integrando sempre più nei flussi di lavoro. Le aziende che utilizzano l’API di OpenAI consumano 320 volte più “reasoning tokens” rispetto a un anno fa, il che indica un utilizzo dell’AI per la risoluzione di problemi più complessi. Tuttavia, resta da valutare se questo aumento sia dovuto a una reale efficacia o a una sperimentazione intensiva con la nuova tecnologia. L’incremento dei “reasoning tokens”, correlato a un maggiore consumo energetico, potrebbe rappresentare un costo elevato e insostenibile a lungo termine per le aziende.

Oltre alle metriche di utilizzo, OpenAI sta osservando cambiamenti nel modo in cui le aziende implementano i suoi strumenti. L’utilizzo di custom GPTs, impiegati per codificare la conoscenza istituzionale in assistenti o automatizzare i flussi di lavoro, è aumentato di 19 volte quest’anno, rappresentando ora il 20% dei messaggi enterprise. BBVA, una banca digitale, utilizza regolarmente oltre 4.000 custom GPTs. Queste integrazioni hanno portato a un significativo risparmio di tempo, con i partecipanti che dichiarano di risparmiare tra i 40 e i 60 minuti al giorno grazie ai prodotti enterprise di OpenAI. Tuttavia, questo dato potrebbe non includere il tempo necessario per apprendere i sistemi, formulare prompt o correggere gli output dell’AI.
- 🚀 OpenAI sta veramente rivoluzionando il mondo enterprise, ma......
- 🤔 Tutta questa enfasi sull'AI enterprise mi lascia perplesso......
- 🤯 E se la vera sfida di OpenAI fosse un'altra?......
Democratizzazione delle Competenze o Nuovi Rischi per la Sicurezza?
Il report di OpenAI evidenzia che i lavoratori utilizzano sempre più gli strumenti AI per ampliare le proprie capacità. Il 75% degli intervistati afferma che l’AI consente loro di svolgere compiti, inclusi quelli tecnici, che prima non erano in grado di fare. Si è registrato un aumento del 36% dei messaggi relativi alla programmazione al di fuori dei team di ingegneria, IT e ricerca. Sebbene OpenAI promuova l’idea che la sua tecnologia stia democratizzando l’accesso alle competenze, è importante considerare che una maggiore “vibe coding” potrebbe portare a vulnerabilità di sicurezza e altri difetti. In risposta a queste preoccupazioni, OpenAI ha rilasciato Aardvark, un agente di ricerca sulla sicurezza in beta privata, come potenziale strumento per rilevare bug, vulnerabilità ed exploit.
Il report di OpenAI ha inoltre rilevato che anche gli utenti più attivi di ChatGPT Enterprise non utilizzano gli strumenti più avanzati a loro disposizione, come l’analisi dei dati, il ragionamento o la ricerca. Secondo Brad Lightcap, chief operating officer di OpenAI, l’adozione completa dei sistemi AI richiede un cambio di mentalità e una maggiore integrazione con i dati e i processi aziendali. L’adozione delle funzionalità avanzate richiederà tempo, poiché le aziende dovranno riorganizzare i flussi di lavoro per comprendere appieno le potenzialità dell’AI.
Lightcap e Chatterji hanno sottolineato la crescente disparità nell’adozione dell’AI, con alcuni lavoratori “frontier” che utilizzano più strumenti più spesso per risparmiare più tempo rispetto ai “ritardatari”. Questa divisione rappresenta un’opportunità per le aziende meno avanzate di recuperare terreno, ma potrebbe anche generare preoccupazioni tra i lavoratori che vedono l’AI come una minaccia per il loro lavoro.
Verso un Futuro dell’AI Enterprise: Sfide e Opportunità
L’analisi dei dati di OpenAI rivela un panorama complesso e in rapida evoluzione. Da un lato, l’adozione dell’AI enterprise è in crescita, con un impatto significativo sulla produttività e sulle competenze dei lavoratori. Dall’altro, emergono sfide legate alla sicurezza, alla sostenibilità economica e alla disparità nell’adozione. La competizione con Google e Anthropic, unita agli ingenti investimenti infrastrutturali, impone a OpenAI di consolidare la propria posizione nel mercato enterprise.
Il futuro dell’AI enterprise dipenderà dalla capacità delle aziende di integrare efficacemente queste tecnologie nei propri flussi di lavoro, garantendo al contempo la sicurezza e la sostenibilità. Sarà fondamentale superare la divisione tra “frontier” e “ritardatari”, promuovendo una cultura aziendale che valorizzi l’innovazione e l’apprendimento continuo.
Cari lettori, spero che questo articolo vi abbia offerto una panoramica completa e approfondita sull’attuale stato dell’AI enterprise e sulle sfide che OpenAI si trova ad affrontare. Per comprendere meglio il contesto, vorrei introdurre un concetto fondamentale dell’intelligenza artificiale: il transfer learning. Questa tecnica consente a un modello AI addestrato su un determinato compito di applicare le proprie conoscenze a un compito diverso ma correlato. Nel caso di OpenAI, il transfer learning potrebbe essere utilizzato per adattare i modelli linguistici addestrati su grandi quantità di dati testuali a specifici settori aziendali, migliorando l’efficacia dei custom GPTs.
Un concetto più avanzato è quello del reinforcement learning from human feedback (RLHF). Questa tecnica, utilizzata da OpenAI per migliorare ChatGPT, consiste nell’addestrare un modello AI a partire dai feedback forniti dagli utenti umani. In questo modo, il modello può imparare a generare risposte più pertinenti, accurate e utili.
Vi invito a riflettere su come l’AI sta trasformando il mondo del lavoro e su come possiamo prepararci a un futuro in cui l’intelligenza artificiale sarà sempre più integrata nelle nostre attività quotidiane. Quali competenze saranno più richieste? Come possiamo garantire che l’AI sia utilizzata in modo etico e responsabile? Queste sono solo alcune delle domande che dobbiamo porci per affrontare al meglio le sfide e le opportunità che ci attendono.








