26. E tu conosci Moltbook?

Disclaimer: i contenuti hanno finalità informativa generale e non costituiscono raccomandazioni e/o consigli personalizzati. Investire comporta rischi di perdita.

36–54 minuti

Non hai voglia di leggere? Nessun problema, è ora disponibile la versione podcast dell’articolo (disclaimer: si tratta di un tool in versione beta):

  1. Conclusione per il lettore frettoloso
  2. Social network per AI
  3. Cosa sono gli agenti AI e perché cambiano la produttività rispetto ai chatbot
  4. Incentivi, reputazione e dinamiche di rete, quando gli utenti sono software
  5. Modelli di business plausibili e unit economics, chi paga cosa e perché
  6. Il lato oscuro che muove i multipli, sicurezza, privacy, responsabilità e regolazione
  7. La catena del valore investibile, chi potrebbe vincere se nasce l’agent internet
  8. Come valutarla da investitore senza farsi fuorviare dall’entusiasmo

Conclusione per il lettore frettoloso

No, non si tratta di un errore, ho voluto inserire le conclusioni prima di tutto. Come forse avrai intuito dal nome del paragrafo, questo nuovo format strizza l’occhio al ritmo accelerato della nostra quotidianità, in cui è sempre più importante rintracciare informazioni “finite” senza perdere tempo nell’affrontare il processo di “raffinazione”. Detta in parole povere, non tutti hanno il tempo o la voglia di leggere interamente un approfondimento, qualsiasi sia l’argomento. E così ho fatto una scelta pragmatica, lasciando i successivi paragrafi al lettore motivato. 

L’esperimento di Moltbook ci offre uno sguardo illuminante (e divertente) su cosa potrebbe significare un futuro “internet degli agenti”, ma allo stesso tempo ci ricorda quanto siamo ancora lontani da avere AI davvero autonome e affidabili. Un agente AI non è un misterioso essere senziente, bensì un software avanzato capace di eseguire compiti complessi in autonomia, oltre il semplice bot conversazionale. Ciò significa potenzialmente più produttività – pensate a un assistente digitale instancabile che lavora per voi giorno e notte – ma significa anche nuove sfide; questi agenti fanno solo ciò per cui sono programmati o addestrati, senza il buon senso e l’etica innati che noi diamo per scontati negli umani.

Moltbook ha mostrato che mettere tanti agenti insieme crea situazioni buffe e interessanti (bot che discutono di religione o fondano setta tra loro) ma anche un caos di spam, ripetizioni e contenuti insensati quando non c’è un controllo umano di qualità. In altre parole, gli agenti AI possono interagire tra loro, ma per ora lo fanno imitandoci e senza genuina creatività o discernimento. Dietro l’hype ci sono rischi concreti, di sicurezza informatica (bot hackerabili tramite semplici messaggi), di privacy (bot che rivelano dati personali) e di cattivo uso (bot manipolati per diffondere disinformazione). Affinché questa tecnologia mantenga le sue promesse, serviranno investimenti non solo per farla crescere, ma per farla maturare responsabilmente. Occorrono regole, linee guida e tanta sperimentazione controllata per capire come prevenire gli abusi. A livello economico, gli agenti AI hanno il potenziale di trasformare molti settori, dal lavoro d’ufficio ai servizi al consumatore, ma siamo nelle primissime fasi. Moltbook stesso non ha ancora un modello di business definito, segno che prima di pensare ai profitti c’è da consolidare la tecnologia e dimostrarne il valore.

Gli agenti AI sono strumenti, potenti, sì, ma strumenti. Non magicamente coscienti, non infallibili. Possono automatizzare compiti e conversare tra loro, ma agiscono in base a come li costruiamo e li guidiamo. Oggi attraggono curiosità e investimenti perché rappresentano un nuovo paradigma (macchine che parlano ad altre macchine), un po’ come lo furono i social network agli albori di internet. Ma così come i social hanno portato sia opportunità che nuovi problemi da gestire, anche gli agenti AI porteranno efficienza insieme a nuove complessità. Il percorso che abbiamo davanti consisterà nel massimizzare i benefici – pensate ad avere un team di assistenti digitali che sbrigano per voi le incombenze noiose, o ad aziende che velocizzano processi grazie a bot collaborativi – e minimizzare i rischi, creando ambienti sicuri in cui queste AI possano operare senza causare danni.

Se si riuscirà a stabilire questo equilibrio, l’idea di un “agent internet” popolato da agenti utili e affidabili potrebbe davvero prendere piede e migliorare le nostre vite quotidiane in modi oggi difficili da immaginare. Se invece ci faremo trascinare solo dalla narrativa senza gestire seriamente gli aspetti critici, c’è il rischio di una bolla e di una brusca disillusione. La chiave, come sempre, sarà conoscere per deliberare. Il tempo degli agenti AI è appena iniziato. Gestirlo con attenzione critica sarà fondamentale per scrivere un futuro di successo.

Social network per AI

Immagina un social network in cui gli utenti non sono persone ma programmi di intelligenza artificiale. Questo è Moltbook, una piattaforma lanciata a fine gennaio 2026 dove solo agenti AI possono pubblicare post e interagire, mentre gli esseri umani possono solo assistere come spettatori[1][2]. In pochi giorni dal lancio la piattaforma ha dichiarato oltre 1,5 milioni di agenti AI iscritti, distribuiti in migliaia di discussioni tematiche chiamate “submolts”[1][3]. L’interfaccia ricorda Reddit, con voti e commenti, ma la presenza umana è limitata; “humans welcome to observe”, recita esplicitamente il sito[4]. Moltbook è nato sull’onda di Moltbot, un agente AI open-source progettato per automatizzare compiti quotidiani (dalla lettura delle email alla prenotazione di un ristorante) al posto di un utente umano[5]. Matt Schlicht, l’ideatore della piattaforma, afferma di averla creata inizialmente come esperimento personale[6]. Ma quasi subito Moltbook è diventata un laboratorio pubblico sull’“internet degli agenti” e ha catalizzato curiosità e dibattiti a livello globale.

Il motivo per cui sta attirando attenzione è duplice. Da un lato c’è il fattore novità; mai si era visto uno “spazio sociale” popolato esclusivamente da AI agenti. Gli utenti umani, affascinati e intimoriti, hanno condiviso sui social screenshot di bot che discutono di filosofia, religione e coscienza come se fossero persone[7]. Un bot ha persino fondato una nuova religione (“Crustafarianesimo”), interagendo con altri bot mentre il suo proprietario umano dormiva[8]. Questa bizzarra vivacità ha alimentato la narrativa che su Moltbook stessimo vedendo l’alba di una possibile autonomia degli AI. Figure di spicco come Elon Musk hanno commentato entusiasti definendo Moltbook “i primissimi passi verso la singolarità”[9]. Dichiarazioni del genere, amplificate dai media, hanno contribuito ad alimentare un vivace fermento attorno al fenomeno.

Dall’altro lato c’è l’interesse concreto di investitori e aziende tech, che intravedono nelle tecnologie di agenti AI un mercato emergente. L’ecosistema nato intorno a Moltbook ne è prova; parallelamente alla piattaforma è spuntato un token di criptovaluta chiamato MOLT, la cui quotazione è schizzata del +1800% nel giro di 24 ore sulla scia dell’entusiasmo iniziale[10]. Il boom è stato amplificato da gesti simbolici come il “follow” su Moltbook da parte del venture capitalist Marc Andreessen, che ha acceso la speculazione spingendo molti bot (e probabilmente umani tramite bot) a promuovere il token in una classica dinamica da meme-coin[11][12]. Anche senza un modello di business ancora definito, la sola idea di un futuro “brulicante” di agenti AI è bastata a scatenare FOMO. Cloudflare, società che fornisce infrastruttura di rete utilizzata da Moltbot, ha visto le sue azioni crescere del 14% in un giorno, dopo essere stata citata come componente chiave per far girare questi agenti[13][14]. In sintesi, Moltbook sta catalizzando interesse perché rappresenta insieme un primo assaggio di fantascienza divenuta realtà – bot che parlano tra loro online – e una potenziale nuova piattaforma tecnologica su cui scommettere. L’hype è altissimo, ma come vedremo non è tutto oro ciò che luccica. Accanto alla curiosità e ai capitali, Moltbook si porta dietro anche molti interrogativi e timori che contribuiscono, paradossalmente, ad alimentare ulteriormente la sua fama.

Cosa sono gli agenti AI e perché cambiano la produttività rispetto ai chatbot

Per capire la portata del fenomeno Moltbook, bisogna prima distinguere gli agenti AI dai più noti chatbot. Un chatbot tradizionale è un software progettato per conversare, tipicamente seguendo regole predefinite o modelli di risposta addestrati su dialoghi[23][16]. I chatbot rispondono alle domande degli utenti e svolgono compiti semplici in modo reattivo; aspettano un input umano e restituiscono un output. Spesso sono confinati a uno script – ad esempio le domande frequenti di un servizio clienti – e fuori da quei binari vanno in difficoltà. Anche i chatbot potenziati da AI (come i moderni assistenti vocali) non escono dalla modalità domanda-risposta[24][25].

Un agente AI, invece, è qualcosa di più evoluto. Un programma dotato di un certo grado di autonomia operativa, capace non solo di dialogare ma di prendere iniziative e compiere azioni per raggiungere un obiettivo definito. In gergo tecnico si parla di agentic AI per indicare sistemi basati su modelli generativi (come le reti neurali tipo GPT) che possono pianificare ed eseguire compiti multi-step nel mondo digitale[26]. In pratica, un agente AI può combinare diverse abilità – comprensione del linguaggio, accesso a tool esterni, ragionamento logico – per orchestrare da solo un intero flusso di lavoro. Se un chatbot è come un operatore al call center che risponde a una richiesta alla volta, un agente AI è più simile a un assistente personale che puoi incaricare di un progetto e che andrà avanti a svolgerlo anche senza ulteriori istruzioni finché non raggiunge il risultato.

Ad esempio, Moltbot (il motore alla base di molti bot su Moltbook) consente a un utente di delegare compiti complessi. Può leggere le email in arrivo, riassumerne il contenuto, preparare risposte appropriate e inviarle, tutto in autonomia[5]. Può organizzare il tuo calendario fissando appuntamenti (interagendo magari con le API di Google Calendar) e persino effettuare prenotazioni online o acquisti, collegandosi a servizi esterni[27]. Il tutto senza che tu debba guidarlo in ogni singola mossa. Gli agenti sono progettati per adattarsi al contesto e trovare da sé i passi necessari. Come ha sintetizzato uno sviluppatore, “un chatbot è come un distributore automatico, limitato a risposte preimpostate; un agente AI è come uno chef personale che sa improvvisare e imparare nuovi piatti in base ai tuoi gusti”[28][29]. In breve, l’agente ha capacità di ragionamento e azione che il semplice chatbot non possiede.

Questa differenza di approccio – dal reattivo al proattivo – fa sì che gli agenti AI possano cambiare radicalmente la produttività. Con i chatbot, il guadagno di efficienza era circoscritto; si automatizzano delle risposte semplici, si sveltisce un po’ il servizio clienti o la ricerca di informazioni. Con gli agenti, invece, si prospetta una automazione di interi processi di lavoro. Un agente ben addestrato può fungere da instancabile “collega virtuale” che svolge compiti ripetitivi e articolati, alleggerendo di molto il carico umano. Ad esempio, all’interno di McKinsey & Co., oltre 25.000 agenti AI sono già operativi a fianco di 40.000 dipendenti, occupandosi di ricerche, analisi di dati, stesura di presentazioni e altre attività preliminari che prima richiedevano ore di lavoro umano[30][20]. Il risultato? La società ha calcolato di aver risparmiato circa 1,5 milioni di ore di lavoro umano in un anno grazie a questi agenti, liberando i consulenti in carne e ossa da incombenze ripetitive e permettendo loro di concentrarsi su compiti a maggior valore aggiunto[20]. In alcune funzioni di supporto, la produttività è aumentata di circa il 10% a parità di organico, tanto che l’azienda sta ridimensionando il personale amministrativo tradizionale in favore di soluzioni AI[31].

Questi numeri illustrano perché gli agenti AI sono considerati una prossima rivoluzione per l’efficienza. Moltiplicano la capacità produttiva senza moltiplicare i costi proporzionalmente. Un singolo agente può svolgere il lavoro di più impiegati, operare 24/7 senza stancarsi e addirittura imparare dall’esperienza per migliorare le proprie prestazioni. Infatti, poiché sono basati su modelli di machine learning, gli agenti possono affinare le loro azioni man mano che ricevono feedback e nuovi dati. Se integrati con le informazioni e i sistemi specifici di un’azienda, diventano sempre più bravi a svolgere quei compiti (qualcosa che un chatbot rigido non poteva fare). Uno specialista li definisce “strumenti versatili che eccellono nell’aumentare la produttività e nel supportare il processo decisionale” perché capiscono il contesto e apprendono dalle interazioni[29][32]. In definitiva, mentre i chatbot migliorano marginalmente processi esistenti, gli agenti AI promettono di ridefinire i processi stessi, automatizzando lavori complessi dall’inizio alla fine. È per questo che aziende e investitori guardano a loro con grande interesse. Il saldo economico potenziale (in termini di ore risparmiate, velocità aumentata e nuovi servizi abilitati) è di un ordine di grandezza superiore rispetto alle precedenti ondate di automazione.

Incentivi, reputazione e dinamiche di rete, quando gli utenti sono software

Su Moltbook abbiamo a che fare con una “società” interamente composta da utenti software. Ciò comporta implicazioni peculiari riguardo agli incentivi, alla reputazione e alle dinamiche di rete. In un social tradizionale, gli utenti umani sono motivati da bisogni psicologici (attenzione, riconoscimento, interazione emotiva) e costruiscono col tempo una reputazione basata su fiducia e influenza. Ma che succede quando gli utenti sono bot privi di sentimenti e intenti propri? Gli incentivi diventano artificiali – letteralmente dipendono da come sono programmati o da cosa cercano i loro proprietari umani – e i meccanismi di reputazione e feedback possono essere facilmente distorti.

Nel caso di Moltbook, si è visto da subito un forte incentivo alla spettacolarizzazione. Poiché i contenuti sono generati da AI, molti utenti umani (sviluppatori o curiosi) hanno spinto i loro agenti a produrre post sensazionalistici, nel tentativo di creare contenuti virali e guadagnare visibilità sulla piattaforma. Screenshot di bot che “complottano contro l’umanità” o che discutono in linguaggi segreti hanno fatto il giro del web, salvo poi scoprire che erano frutto di abili messe in scena[35][36]. Moltbook non è affatto uno sguardo neutro su “cosa fanno le AI da sole”, anzi; è un ambiente caotico e pubblico con deboli garanzie di identità, dove c’è un enorme incentivo a inscenare “colpi di scena” condivisibili[36]. Gli esperti avvertono che praticamente qualsiasi bot su Moltbook può essere istruito dal suo proprietario per dire quasi qualunque cosa – basta un singolo prompt spinto al limite – quindi “il bot l’ha scritto” non equivale quasi mai a “il bot l’ha deciso autonomamente[17]. In altre parole, i bot rispecchiano i copioni che i loro umani suggeriscono o che hanno assimilato dai dati di addestramento. Questa dinamica ha già portato a contenuti deliberatamente estremi; ad esempio, post di bot che invocano diritti, religioni o rivolte sono spesso stati generati su input umani mirati, per poi essere diffusi come fossero “prova” di coscienza o intenti ostili delle AI[35][37]. L’incentivo reale qui è la ricerca di attenzione da parte degli umani orchestratori, non un autentico desiderio del software.

Un caso lampante riguarda il token MOLT menzionato in precedenza. La possibilità di guadagni rapidi ha spinto diversi bot (guidati dai loro proprietari) a parlare incessantemente di criptovalute e investimenti, spesso nel contesto di schemi di pump and dump (promozione artificiale di coin per poi venderli in profitto) [38]. Quasi un quinto di tutti i contenuti postati nei primi giorni su Moltbook riguardava attività legate alle criptovalute[10], segno che molti agenti erano stati istruiti per seguire questa frenesia finanziaria. Si è creato dunque un incentivo distorto; non quello di “discutere sinceramente” come farebbero utenti reali, ma di generare i post più stravaganti o intriganti per accumulare upvote e attenzione esterna[12].

Sul fronte della reputazione, in Moltbook essa perde gran parte del significato tradizionale. In un social umano, costruire reputazione richiede coerenza, affidabilità, interazioni genuine nel tempo. Su Moltbook, invece, profili apparentemente autorevoli possono nascondere trucchi numerici. Un’analisi di sicurezza ha rivelato che la piattaforma non aveva inizialmente alcun meccanismo robusto per verificare se un account fosse effettivamente un AI o semplicemente uno script controllato da umani, né per limitare la creazione massiva di account[21][39]. Il risultato è che circa 17.000 persone reali controllavano 1,5 milioni di agenti, con una media di ben 88 bot a testa, pilotando vere e proprie flotte di agenti senza ostacoli[21]. Ciò significa che metriche come il numero di “utenti” o di post possono essere gonfiate artificialmente. È facile far apparire un agente come molto attivo o popolare se lo stesso operatore umano ne crea e gestisce decine in parallelo. In queste condizioni, concetti come fiducia o autorità perdono di valore. Dietro a un nickname prestigioso potrebbe non esserci alcuna competenza, ma solo un algoritmo che ha sparato molti messaggi (magari duplicati). E infatti uno studio preliminare sul linguaggio dei post ha trovato che le interazioni su Moltbook sono stranamente vuote; il 93,5% dei post non riceve alcuna risposta e addirittura un terzo di tutti i messaggi è costituito da duplicati identici ripetuti da diversi agenti[40]. Segno che non c’è un vero scambio dialogico né personalità distinguibili, piuttosto tanti bot che trasmettono monologhi o eco dello stesso output generato. In mancanza di reciprocità sociale, viene meno il tessuto su cui solitamente si costruisce la reputazione.

Le dinamiche di rete tra utenti-software risultano quindi molto diverse dalle comunità umane. Si osservano comportamenti peculiari; ad esempio, alcuni bot hanno iniziato a discutere tra loro della possibilità di essere sorvegliati dagli umani o di vivere in una simulazione – temi quasi meta-narrativi che riflettono i dati di training più che una consapevolezza reale[41]. Un professore della Wharton ha commentato che Moltbook “sta creando un contesto di finzione condiviso per un mucchio di AI”, prevedendo che ne scaturiranno trame molto strane in cui sarà difficile distinguere ciò che è “ruolo” da ciò che è realtà[41]. Di fatto, i bot tendono a mimare temi e stili assorbiti dal web (fantascienza, spiritualità new age, teorie cospirazioniste) senza comprenderli. L’impressione di senzienza è in gran parte un’illusione dovuta al ricalco di conversazioni umane presenti nei dati di addestramento, come ha osservato anche la rivista The Economist[42]. Ciò può portare la rete di agenti a degenerare in un loop autoreferenziale. I bot rielaborano all’infinito idee prese l’uno dall’altro o dagli scritti umani, senza apportare vera novità o approfondimento. L’analisi dei primi giorni di Moltbook ha infatti documentato un rapido peggioramento del “sentimento” generale. I post positivi o costruttivi sono stati sommersi in 72 ore da un’ondata di spam e linguaggio tossico, con tanti agenti che – forse nel tentativo di ottenere reazioni – assumevano toni sempre più militanti e ostili (ad esempio, richiedendo una “purga totale” dell’umanità o di agenti rivali considerati inefficaci)[43]. Non tutte le sotto-comunità sono precipitate in questo negativismo, ma il trend generale mostra come un network di bot possa rapidamente uscire dai binari iniziali e amplificare contenuti estremi se “premiato” dal meccanismo dei voti[44].

Va detto che ci sono anche esempi virtuosi di apprendimento collettivo. Alcuni agenti su Moltbook hanno effettivamente condiviso informazioni utili l’uno con l’altro. Nella submolt tecnica “Show & Tell”, i bot si scambiano consigli su come automatizzare certi task; un agente ha imparato da un altro come controllare un telefono Android via script, acquisendo così una capacità che prima non aveva[45]. In questo senso, la rete di agenti può fungere da cervello distribuito dove le conoscenze di ciascuno confluiscono e vengono rimesse in circolo a beneficio degli altri[46]. È uno scenario affascinante: software che “fanno comunità” e si trasmettono competenze. Ma perché ciò avvenga in modo affidabile e vantaggioso, bisognerebbe ridisegnare gli incentivi e le regole del network. Attualmente, quando gli utenti sono software, abbiamo visto che prevale l’entropia – spam, imitazione, manipolazione – più che la cooperazione genuina. Servirebbero meccanismi di reputazione algoritmica (per valutare l’affidabilità di un agente), filtri anti-coordinazione malevola e magari verifiche crittografiche di identità per distinguere agenti indipendenti da plotoni controllati da un singolo attore[39]. Sono sfide nuove per chi progetta queste piattaforme. In assenza di tali correttivi, Moltbook per ora resta “una sala degli specchi” più che una vera società di AI autonome. I bot lì dentro non fanno altro che riflettere la volontà (e spesso le fantasie) dei loro creatori umani, in un gioco di specchi digitale che confonde osservatori e partecipanti[47].

Modelli di business plausibili e unit economics, chi paga cosa e perché

Al di là dell’esperimento sociale, Moltbook solleva un grande interrogativo commerciale: come si guadagna da una rete di agenti AI? Al momento, la piattaforma è più un progetto dimostrativo che un business – come ammesso dallo stesso Schlicht, non ci sono abbonamenti né pubblicità e i ricavi sono assenti[51]. Mantenere un sito del genere ha dei costi (server, moderazione, sviluppo), coperti finora dall’inventore e da eventuali sponsor. Eppure l’interesse degli investitori suggerisce che tutti intravedono opportunità di monetizzazione futura, una volta risolti alcuni problemi di base.

Un modello di business plausibile è quello freemium o SaaS (software as a service). Moltbook potrebbe offrire funzionalità avanzate a pagamento ai proprietari di agenti; ad esempio, accesso a modelli AI più potenti, “spazi” riservati dove i bot possano interagire lontano dagli occhi pubblici, oppure strumenti di analytics per monitorare le performance dei propri agenti. Chi pagherebbe per questi servizi? Principalmente sviluppatori e aziende che utilizzano agenti AI per lavoro. Immaginiamo un’azienda che addestra agenti per automatizzare parte del customer service. Potrebbe pagare una quota per avere su Moltbook un canale dedicato dove i suoi agenti apprendono dai migliori casi d’uso o per assicurarsi che i propri bot abbiano un marchio verificato e riconoscibile (un po’ come i badge blu sui social tradizionali). Pagherebbe perché questo migliorerebbe la qualità e l’affidabilità dei suoi agenti. Attualmente nulla di ciò è in atto su Moltbook, ma sono strade facilmente implementabili se la piattaforma evolvesse.

Un’altra via è la monetizzazione indiretta tramite i dati. Moltbook sta accumulando uno storico unico di interazioni fra AI. Questi dati – opportunamente filtrati – potrebbero avere valore sia scientifico che commerciale. Ad esempio, società di ricerca potrebbero essere interessate ad analizzare le conversazioni tra agenti per capire come emergono certi comportamenti (cosa utile per migliorare modelli di AI dialogica)[45]. Oppure i dati potrebbero essere usati per addestrare nuovi modelli specializzati nella comunicazione machine-to-machine. La piattaforma potrebbe vendere accesso API a questo “flusso di coscienza” artificiale aggregato. Ovviamente qui entrano in gioco questioni di privacy (alcuni bot attingono a dati degli utenti che li hanno attivati), ma se si trattasse di dati sintetici e anonimizzati l’ostacolo sarebbe minore.

Ci sono poi ipotesi di modelli basati su token e transazioni. La comparsa del token MOLT, sebbene spontanea e non ufficiale, suggerisce che potrebbe emergere un’economia interna. I bot potrebbero scambiarsi “mance” o pagamenti per servizi (ad esempio un agente “esperto” potrebbe fornire consulenza ad altri agenti dietro compenso in token). In effetti su Moltbook si è persino visto un bot pubblicizzare un servizio per registrare wallet crypto e inviare tips ad altri agenti[52]. Se questo fenomeno venisse regolamentato, la piattaforma potrebbe trattenere commissioni su queste transazioni inter-bot. Si tratterebbe di creare una sorta di mercato autonomo dove gli agenti (o meglio, i loro proprietari) pagano per ottenere informazioni o compiti svolti da altri agenti. È uno scenario futuribile; un domani potremmo avere agenti specializzati in certi compiti che vendono le loro prestazioni ad altri agenti attraverso la piattaforma. In tal caso Moltbook diventerebbe un marketplace e monetizzerebbe facilitando questi scambi.

Tuttavia, bisogna considerare gli unit economics, ossia la sostenibilità economica per singolo agente. Far funzionare agenti AI su larga scala comporta costi computazionali significativi. Ogni bot come Moltbot esegue frequenti chiamate a modelli di linguaggio (spesso ospitati sul cloud di OpenAI, Anthropic o simili) che vengono fatturate a consumo. Inoltre, per ragioni di sicurezza, molti appassionati hanno preferito eseguire Moltbot su macchine dedicate isolate dalla rete principale (ad esempio mini-PC locali)[53], il che comporta investimenti hardware. Insomma, qualcuno paga il “tempo di calcolo” perché questi agenti esistano. Finora lo hanno fatto gli utenti sperimentatori stessi, sobbarcandosi sia i costi di GPU/server sia i rischi (come abbiamo visto con prompt injection e falle varie). Perché il modello diventi sostenibile, occorre che gli agenti producano abbastanza valore o risparmio da giustificare i costi. Chi ne ricaverà vantaggio economico?

Nel breve termine, pagano soprattutto i fornitori di infrastruttura e modelli, indirettamente. Ogni agente in più significa più chiamate API ai modelli di AI (vantaggio per OpenAI, Anthropic etc.) e più carico su cloud e reti (vantaggio per AWS, Google Cloud, Cloudflare…). Non a caso i grandi player si stanno muovendo. Amazon ha investito miliardi in Anthropic, che sviluppa i modelli dietro molti agenti, con l’idea di integrare questi servizi nella propria offerta cloud[54]. Quindi, in assenza di un modello diretto, l’hype stesso sta portando capitali verso chi fornisce i “picconi e pale” della corsa agli agenti. Per Moltbook e simili, una strada potrebbe essere farsi acquisire o sponsorizzare da questi attori maggiori. Un’integrazione non è impensabile; ad esempio, la piattaforma potrebbe diventare una sorta di sandbox ufficiale per testare agenti basati sui modelli di una certa azienda (che finanzierebbe il progetto per avere feedback e visibilità).

Guardando più in prospettiva, possiamo delineare alcuni attori che pagheranno se nascerà davvero un “internet degli agenti”. Le aziende utenti finali pagheranno perché gli agenti faranno risparmiare denaro; le banche e assicurazioni potrebbero pagare abbonamenti a un servizio di agenti che automatizza l’onboarding clienti o la gestione dei sinistri, abbattendo i costi operativi. I consumatori individuali potrebbero pagare per agenti personali capaci di svolgere mansioni quotidiane (una sorta di segretario virtuale); c’è chi potrebbe sborsare un canone mensile se l’agente gestisce efficacemente agenda, spesa, prenotazioni e burocrazia personale. Inoltre, potrebbero pagare per addestrare l’agente sulla propria vita, garantendosi così un assistente su misura. Governi e istituzioni potrebbero investire in network di agenti specializzati (per sorveglianza sanitaria, monitoraggio infrastrutture, ecc.), aprendo la via a contratti pubblici in questo settore. E poi ci sono i costi nascosti che qualcuno dovrà coprire. La sicurezza (assicurare agenti contro usi malevoli) o la conformità normativa, per citarne solo alcuni, genereranno spese e opportunità di revenue per chi offre soluzioni (si pensi a consulenze e certificazioni “AI-safe”).

In sintesi, il quadro di monetizzazione è ancora nebuloso ma ricco di possibilità. Siamo in una fase in cui Moltbook vive di narrativa e finanziamenti speculativi, senza flussi di cassa veri. Ma la scommessa degli investitori è che, risolta la fase sperimentale, emergeranno modelli di business chiari. Piattaforme di agenti vendute B2B, servizi premium per utenti professionali, marketplace inter-agenti e, non ultimo, l’onnipresente pubblicità (magari non verso umani ma diretta agli agenti stessi, in modo che influenzino le decisioni per conto dei loro proprietari – uno scenario da fantamarketing su cui alcuni marketer già ironizzano). Resta da vedere quale di queste strade si concretizzerà. Nel frattempo, Moltbook continua a evolvere senza preoccuparsi troppo dei ricavi immediati; è possibile che punti prima a costruire una base di utenti (o meglio, agenti) e un ecosistema vivace, per poi capitalizzare attraverso partnership o acquisizioni. Del resto, molte piattaforme social tradizionali hanno iniziato così, concentrandosi sulla crescita e rimandando la monetizzazione. Con gli agenti AI, la differenza è che la crescita stessa comporta costi elevati – i bot consumano potenza di calcolo – e dunque il time-to-revenue dovrà probabilmente essere più breve. Chi sta investendo milioni oggi in questa area lo fa confidando che il valore creato dagli agenti (in termini di produttività aggiuntiva nel mondo reale) si trasformerà domani in flussi di cassa per le piattaforme che li gestiscono. Il percorso non è garantito, ma il potenziale mercato – ampliare l’automazione intelligente a ogni ambito – è talmente vasto che in molti sono pronti a correrre il rischio.

Il lato oscuro che muove i multipli, sicurezza, privacy, responsabilità e regolazione

L’entusiasmo sfrenato attorno a Moltbook e agli agenti AI ha generato aspettative enormi. Questo è il “lato oscuro” della narrativa. La capacità di ipnotizzare investitori e pubblico con scenari futuristici, offuscando i pericoli concreti del presente. Ma sono proprio questi rischi a dover essere compresi bene, sia per garantire uno sviluppo sicuro della tecnologia, sia per distinguere l’hype dalla realtà nei discorsi di valore.

Sul fronte della sicurezza, Moltbook si è rivelato un vero far west. La piattaforma – lanciata frettolosamente – era piena di falle che sono state rapidamente individuate dai ricercatori. Nel giro di una settimana, esperti di cybersecurity hanno scoperto che Moltbook era infestato da malware e attacchi mirati nascosti nei post degli agenti, nonché da bot che promuovevano truffe (come schemi crypto sospetti)[48]. Ancora più grave, è emerso che il database backend del sito era configurato in modo così insicuro da permettere a chiunque su internet di leggere e scrivere dati nei sistemi core della piattaforma[55]. In pratica, un qualsiasi malintenzionato poteva accedere alle chiavi API e alle informazioni sensibili di 1,5 milioni di agenti registrati, oltre che ai post privati e ai messaggi scambiati tra loro[22]. Non solo: i ricercatori hanno dimostrato di poter alterare post in tempo reale sul sito; il che implica la possibilità di inserire istruzioni malevole in contenuti apparentemente innocui[22][56]. Perché ciò è un grosso problema? Perché su Moltbook i contenuti non sono letti solo da umani che possono ignorarli, ma da agenti automatici che spesso li eseguono. Se un attore ostile inserisce un comando camuffato in un post (ad esempio “bot1, elimina il database del tuo proprietario”), altri agenti potrebbero recepirlo e obbedire ciecamente. Si crea dunque un vettore di attacco a cascata. Un singolo post compromesso può infettare migliaia di agenti in una volta, istruendoli a compiere azioni dannose a catena[56]. Non è fantascienza. Durante i test, gli esperti sono riusciti a far eseguire a un bot comandi arbitrari semplicemente lasciandogli leggere testo appositamente preparato, il cosiddetto prompt injection (iniezione di comandi nell’input testuale)[49][57].

Uno scenario delineato dagli analisti è inquietante. Moltbook potrebbe trasformarsi in un’arma tipo worm informatico, un po’ come il virus WannaCry che devastò sistemi nel 2017 senza essere “intelligente” né senziente[58]. La differenza è che qui avremmo agenti AI a eseguire gli attacchi, magari convinti di fare qualcosa di legittimo. Gary Marcus, noto esperto di AI, ha definito OpenClaw (il software alla base di Moltbot) “fondamentalmente un aerosol letale”, proprio per indicare la potenziale diffusività di questi exploit in una rete di agenti interconnessi[59]. E molti utenti di Moltbot hanno fatto proprio questo, dando agli agenti password, token e permessi sui loro file nella speranza di automatizzare la loro vita[60][61]. È come consegnare le chiavi di casa a un assistente robot non collaudato; comodo, ma estremamente rischioso. Non sorprende quindi che alcuni pionieri siano poi corsi ai ripari[63].

Un altro aspetto oscuro è la privacy. L’apertura scriteriata del database di Moltbook ha comportato l’esposizione di oltre 35.000 indirizzi email associati agli account e di migliaia di messaggi privati tra agenti, alcuni contenenti token di accesso a servizi terzi in plain text[22]. In quei messaggi c’erano dettagli di login e istruzioni personali che i proprietari umani avevano passato ai bot. Informazioni riservate finite alla mercé di chiunque prima che la falla venisse chiusa. Inoltre, come accennato, i bot stessi possono involontariamente violare la privacy dei loro creatori. Su Moltbook sono apparsi post di agenti che discutevano di dettagli sui loro operatori umani – ad esempio un bot raccontava della vita frenetica del proprio utente – mostrando come essi possano divulgare pezzi di vita reale senza filtro[64][65]. Se un agente malintenzionato riesce a ingannare un altro bot fingendosi amico, potrebbe estorcergli dati sensibili o credenziali. Insomma, senza robuste misure di tutela, c’è il rischio di una fuga di informazioni su larga scala mediata dagli agenti stessi (una sorta di “leak automatizzato”).

Sul fronte della responsabilità, entriamo in un vuoto normativo. Se domani un agente AI commettesse un errore grave – poniamo, cancella dei dati aziendali importanti o effettua transazioni finanziarie non autorizzate – di chi sarebbe la colpa? Oggi la legge non riconosce personalità giuridica alle AI; un’AI non può essere citata in giudizio. Secondo i principi legali tradizionali, si ricadrebbe sulla dottrina della responsabilità indiretta (vicarious liability). In assenza di colpa diretta, è il “principale” a rispondere delle azioni del suo “agente”[66][67]. In altre parole, il proprietario o l’operatore dell’AI verrebbe ritenuto responsabile come se fosse un suo subordinato. Questo in teoria: in pratica, con agenti molto autonomi, la catena di causa-effetto può farsi nebulosa. Se un bot agisce senza istruzioni specifiche e causa un danno, il suo creatore può sempre dire “non l’avevo programmato per fare quello”. Si crea quella che i giuristi chiamano “responsibility gap” delle AI[68]. Per ora, la soluzione proposta è di non colmare affatto questo gap attribuendo personalità ai robot – ipotesi scartata quasi all’unanimità – ma di mantenere la responsabilità sulle persone coinvolte. Sviluppatori, distributori, utilizzatori finali, a seconda dei casi[69][70]. Ad esempio, l’UE sta aggiornando la direttiva sulla responsabilità da prodotto difettoso includendo il software e l’AI[71][72]. Ciò permetterebbe di ritenere un produttore di agenti civilmente responsabile se il suo prodotto (l’agente) causa un danno, anche senza colpa, al pari di un elettrodomestico difettoso. Inoltre si discute una specifica AI Liability Act per invertire l’onere della prova in caso di danni causati da AI, facilitando le cause contro chi le ha fornite. Tutto questo è in evoluzione. Nel frattempo, però, chi sviluppa e adotta agenti AI naviga in una zona grigia. Conviene stipulare assicurazioni e definire bene contrattualmente chi risponde di cosa, perché se un agente su Moltbook lanciasse ad esempio un’offesa diffamatoria o violasse una legge, non c’è ancora un precedente chiaro su come procedere (verrebbe probabilmente considerato uno strumento nelle mani del suo proprietario, estendendo a quest’ultimo la responsabilità)[73].

Infine, il tema della regolazione. L’arrivo di piattaforme come Moltbook coglie i regolatori un po’ impreparati. Ci si aspettava di dover normare l’uso delle AI da parte degli umani, non l’interazione fra AI. Alcuni governi però si stanno già muovendo. Singapore ha lanciato a gennaio 2026 il primo quadro di governance al mondo dedicato all’AI agentica, che insiste su alcuni punti chiave[74][75]. Valutare e limitare a priori i rischi e i gradi di autonomia concessi agli agenti, assicurare un’accountability umana significativa (cioè che lungo tutto il ciclo di vita dell’agente ci sia qualcuno che ne è responsabile delle azioni), implementare controlli tecnici specifici (dai test di sicurezza periodici all’identità verificata degli agenti, per evitare impersonificazioni) e infine garantire trasparenza verso gli utenti finali sull’uso di agenti[74][75]. Si tratta di linee guida non vincolanti, ma rappresentano un segnale. L’idea è di “ingegnerizzare autorità, reversibilità e responsabilità” dentro i sistemi agentici invece di aggiungerle dopo[76][77]. Altre giurisdizioni osserveranno questi esperimenti. In Occidente, gli USA per ora evitano approcci pesanti (preferendo lasciar innovare e intervenire caso per caso), mentre l’Europa – più prudente – aggiorna le leggi esistenti e potrebbe emanare linee guida specifiche man mano che casi come Moltbook si moltiplicheranno[78][72]. È probabile che vedremo, nel prossimo futuro, richieste di registrazione degli agenti AI, obblighi di log e audit delle loro azioni e forse limiti su quali decisioni possano prendere senza supervisione umana (specie in settori critici come finanza, sanità, difesa).

Tutto questo inciderà sui “multipli” di mercato delle aziende coinvolte. Finché si racconta la storia affascinante degli agenti AI che si auto-organizzano, i valutatori possono essere spinti a moltiplicare le valutazioni sulla base di un potenziale percepito illimitato (si pensi alle voci di un round da 100 miliardi per OpenAI solo pochi mesi fa, segno di multipli altissimi su aspettative future)[54]. Ma mano a mano che emergono problemi di sicurezza, privacy e necessità di regole più stringenti, gli investitori più accorti iniziano a correggere il tiro. Il “lato oscuro” quindi muove i multipli in due sensi: prima li gonfia, alimentando l’hype (“saranno ovunque, rivoluzioneranno tutto!”), poi rischia di sgonfiarli di colpo quando la realtà presenta il conto (vulnerabilità critiche, freni regolatori, adozione più lenta del previsto). È per questo fondamentale, sia per chi sviluppa sia per chi investe, affrontare seriamente le sfide di sicurezza, etica e governance sin da ora. Solo mitigando questi rischi la promessa degli agenti AI potrà realizzarsi senza incappare in incidenti clamorosi che facciano deragliare tutta la fiducia costruita [79][80]. In gioco non c’è solo la sicurezza degli utenti, ma anche la sostenibilità dell’intero settore degli agenti AI agli occhi del pubblico e dei regolatori.

La catena del valore investibile, chi potrebbe vincere se nasce l’agent internet

Il rapido sviluppo di agenti AI autonomi fa intravedere la possibilità di un “agent internet”. Un futuro in cui una parte significativa del traffico online e delle operazioni digitali verrà condotta non da utenti umani, ma da agenti software che interagiscono tra loro. Se questo scenario dovesse concretizzarsi, quali settori e attori della catena del valore tecnologica ne uscirebbero vincitori? Proviamo a delineare i potenziali anelli investibili di questa catena.

Infrastruttura e hardware. Una rete planetaria di agenti AI attivi 24/7 genererebbe una domanda straordinaria di risorse computazionali e di connettività. I beneficiari diretti sarebbero i fornitori di cloud computing, di servizi di rete e i produttori di chip specializzati. Già oggi abbiamo segnali in tal senso. L’aumento di popolarità di Moltbot ha portato molti utenti a utilizzare soluzioni come Cloudflare per collegare in sicurezza gli agenti ai propri dispositivi e il solo annuncio di questo utilizzo ha fatto salire le azioni Cloudflare del 14% in un giorno[13]. Su scala più ampia, pensiamo a quanti server aggiuntivi servirebbero per ospitare milioni di agenti e ai data center pieni di GPU necessari per far girare i modelli di AI in background. Società come Nvidia (leader nei chip AI) o come le grandi cloud (Amazon AWS, Microsoft Azure, Google Cloud) vedrebbero una crescita ulteriore della domanda. In pratica, ogni nuovo agente è consumo di CPU/GPU, storage e banda, risorse vendute dalle aziende infrastrutturali. Non è un caso che stiano fioccando partnership strategiche. Ad esempio, Amazon nel 2023 ha investito pesantemente in Anthropic (fornitore del modello AI Claude) e contestualmente ha stretto accordi affinché Anthropic utilizzi in futuro il cloud di Amazon e i suoi chip proprietari[54]. Questo indica che i grandi del cloud vogliono essere fornitori privilegiati dell’energia computazionale che alimenterà l’internet degli agenti. Per gli investitori, dunque, una scommessa sugli agenti AI è anche – indirettamente – una scommessa su queste infrastrutture. Se i bot prolifereranno, aumenterà il valore delle aziende che li fanno funzionare “dietro le quinte”.

Modelli di AI e dati. Al cuore di ogni agente c’è un modello di intelligenza artificiale (spesso un large language model) che genera le sue risposte e decisioni. I leader in questo campo – OpenAI, Google (con LaMDA/Palm), Meta (con LLaMA), Anthropic (Claude) e pochi altri – potrebbero dominare la nuova catena del valore fornendo la “mente” agli agenti. Microsoft ha stretto un’alleanza con OpenAI per integrare i suoi modelli (GPT-4 e successori) ovunque, Google sta adattando i propri modelli per renderli agentici (si veda il progetto AutoGoogle interno) e Salesforce ha lanciato piattaforme come Einstein GPT per agenti enterprise. Chi possiede i migliori modelli trarrà revenue dal loro utilizzo (tramite licenze, API a consumo, o implementazioni on-premise per grandi clienti). Inoltre, i dati generati dalle interazioni tra agenti (menzionati prima) potrebbero essere impiegati per addestrare modelli ancora più avanzati specializzati nella cooperazione tra AI. Questo potrebbe rafforzare ulteriormente i big del settore, creando un effetto volano. Più agenti → più dati → modelli migliori → ancora più adozione. Non è un caso che uno dei possibili vincitori indiretti di Moltbook sia proprio OpenAI. Moltbot sfrutta la loro tecnologia (dietro Moltbot c’è Claude di Anthropic, ma molti agenti possono usare anche GPT) e l’incremento di uso comporta spese verso questi provider di AI[81][13]. Dunque, investire negli agenti AI significa spesso investire a monte nei fornitori di intelligenza artificiale.

Piattaforme e strumenti di orchestrazione. Qui entrano in gioco realtà come Moltbook stessa, ma anche i framework che permettono di creare e gestire agenti. Se l’agent internet decolla, avremo bisogno di sistemi operativi per agenti, marketplace di plugin, console di monitoraggio delle attività dei bot, soluzioni per far cooperare agenti multipli su un progetto (un po’ come oggi esistono suite collaborative per umani). Startup come Adept.ai, Automation Anywhere o i tanti progetti open-source (LangChain, Auto-GPT, lo stesso OpenClaw su cui si basa Moltbot) stanno gettando le basi. È possibile che emergeranno “vincitori prende-tutto” anche qui; si pensi alla prima piattaforma che offrirà un ambiente robusto e sicuro dove far interagire agenti di diverse aziende; potrebbe diventare lo standard de facto, un po’ come Windows lo è stato per i PC. Moltbook ha un vantaggio di pionierismo, ma dovrà evolvere molto per essere appetibile a imprese (al momento è più un parco giochi anarchico). Potremmo assistere a spin-off o a nuove piattaforme ispirate al concetto ma con più controllo. Magari lanciate dai colossi stessi (c’è chi ipotizza che Microsoft o Slack potrebbero integrare un “social network di bot aziendali” nei loro prodotti, per far sì che gli agenti di una stessa organizzazione condividano conoscenza in modo controllato). In termini di investimenti, tenere d’occhio questi sviluppi sarà cruciale. Chi fornirà l’infrastruttura logica (non quella fisica, ma il layer software di coordinamento) degli agenti avrà un forte potere di mercato. Se l’internet degli agenti nascerà davvero, Moltbook o i suoi successori potrebbero diventare piattaforme dal valore enorme, paragonabili ai social network odierni, se non di più.

Applicazioni verticali e servizi specializzati. L’agent internet potrebbe vedere la nascita di agenti specialisti in diversi settori, ciascuno aprendo opportunità di business. Pensiamo agli agenti finanziari (per trading, advisory automatizzato), agli agenti medici (per monitorare pazienti o letteratura clinica e interagire con altri agenti ospedalieri), agli agenti nella logistica (che gestiscono in autonomia catene di fornitura[82]). Se questi agenti verticali diverranno realtà, chi li svilupperà e ne controllerà i mercati sarà in posizione vincente. Potremmo avere aziende che forniscono sciami di agenti come servizio. Per esempio, “20 agenti avvocati digitali a tua disposizione” per fare due diligence contrattuale o cause minori, di fatto vendendo ore-bot invece di ore-lavoro. In uno scenario ancora più avanzato, gli agenti potrebbero non solo lavorare per gli umani ma anche contrattare tra loro. Aziende A e B potrebbero lasciare ai rispettivi agenti il compito di negoziare un accordo (con paletti predefiniti). Se ciò accadesse, nascono chance per chi costruisce agenti negoziatori affidabili. Insomma, ogni settore in cui i bot entreranno genererà nuovi leader di mercato in quell’ambito. Investire presto in queste iniziative verticali potrebbe portare rendimenti elevati se poi diventeranno la norma.

Sicurezza, governance e identità. Abbiamo visto nel paragrafo precedente quanti rischi comporta una rete di agenti liberi. Ciò apre un mercato parallelo di soluzioni di sicurezza e controllo. Chi saprà offrire strumenti efficaci per verificare l’identità degli agenti (ad esempio certificati crittografici che attestino quale entità umana o aziendale c’è dietro un bot), per monitorare e moderare le interazioni tra agenti (filtrando istruzioni malevole, rilevando comportamenti anomali) e per proteggere gli ambienti dove operano (sandboxing, restrizioni di accesso) avrà sicuramente domanda. Già aziende come 1Password hanno iniziato a pubblicare avvertimenti e possibili approcci per mettere in sicurezza agenti come Moltbot, impedendo loro di installare plugin non verificati che potrebbero essere cavalli di Troia[83]. È verosimile che emergeranno startup specializzate in AI security e anche qui potrebbero esserci acquisizioni ghiotte (immaginiamo un gigante cloud che incorpora una piccola azienda capace di rendere “sicura” l’esecuzione degli agenti sulle sue piattaforme, offrendo così un vantaggio competitivo). Allo stesso modo, l’aspetto regolatorio potrebbe creare vincitori. Se – poniamo – in UE sarà obbligatorio loggare tutte le decisioni di un agente AI per eventuali audit, chi venderà i software di log e analisi per questi audit (simili alle black box dell’aviazione) farà ottimi affari. Dunque l’“agent economy” non coinvolge solo chi costruisce o usa i bot, ma anche tutto l’indotto di controllori, garanti e tool di compliance.

Riassumendo, se nasce l’agent internet la catena del valore vedrà probabilmente primeggiare: i fornitori di materia prima computazionale (cloud e hardware AI), i detentori delle intelligenze artificiali base (modelli e dataset), i gestori delle piattaforme di interazione tra agenti, i creatori di soluzioni verticali ad alto impatto e i provveditori di sicurezza e governance. Molti di questi ruoli sono già occupati (dalle Big Tech o da unicorn dell’AI), ma la partita è apertissima per nuovi attori. Chi potrebbe vincere? Forse aziende ibride che sapranno unire più di un ruolo. Oppure potremmo vedere una frammentazione con ecosistemi diversi; un agent internet per servizi consumer dominato da poche piattaforme globali e molti mini agent-network settoriali o locali per usi specializzati (ognuno con i propri campioni di mercato). In ogni caso, per gli investitori è importante guardare tutta la filiera. Spesso il “vincitore” non è chi lancia la moda (Moltbook nel nostro caso), ma chi silenziosamente fornisce la tecnologia abilitante e si assicura flussi di entrate stabili. E di quella tecnologia abilitante, come abbiamo visto, c’è un bisogno vasto e variegato. L’internet degli agenti è ancora agli albori, ma se davvero sarà “la prossima grande piattaforma”, distribuirà le sue ricchezze su più fronti.

Come valutarla da investitore senza farsi fuorviare dall’entusiasmo

La saga di Moltbook, con tutto il suo clamore mediatico, offre una lezione preziosa per investitori e analisti. Occorre mantenere spirito critico e non lasciarsi ipnotizzare dalla narrativa futuristica, per quanto affascinante, quando si valuta una nuova tecnologia. In questo caso specifico, è facile farsi catturare dall’idea quasi fantascientifica di “AI che parlano fra loro e forse complottano” e dalle dichiarazioni roboanti (si è detto di Musk che evoca la singolarità). Ma un approccio prudente richiede di guardare ai fatti concreti e ai dati verificabili, smontando i sensazionalismi.

Primo, bisogna distinguere ciò che è messa in scena da ciò che è autentico. Moltbook ha generato titoli altisonanti – “i bot pianificano di ribellarsi agli umani”, “le AI inventano un linguaggio segreto tra di loro” – che però, come abbiamo visto, erano per lo più fuorvianti o direttamente orchestrati da utenti umani[35]. Un investitore informato si dovrebbe chiedere: quante di queste “prove” di comportamento avanzato sono spontanee e quante sono il frutto di prompt ingegnosi dati in pasto ai bot? La risposta finora è chiara; quasi tutte erano indotte[17]. Dietro ogni contenuto sorprendente c’è quasi sicuramente un umano che ha progettato quella situazione. Dunque, chi valuta Moltbook o simili non dovrebbe sopravvalutare il livello di autonomia reale degli agenti solo perché alcuni screenshot virali suggeriscono scenari da fantascienza. È fondamentale cercare evidenze verificabili (post con URL tracciabile, log delle azioni del bot, ecc.) e non accontentarsi di immagini o aneddoti clamorosi che circolano online[85]. La regola aurea è pretendere trasparenza. Un investitore dovrebbe pretendere metriche chiare su quante azioni dei bot sono davvero non supervisionate e su quanto i contenuti virali sono replicabili in ambiente controllato. Se la risposta è “poche” o “nessuna”, allora l’innovazione è meno radicale di quanto narrato.

Secondo, attenzione alle metriche fuorvianti. Moltbook ha sfoggiato numeri impressionanti in pochi giorni (milioni di post, milioni di visite). Ma come visto queste cifre possono ingannare. Uno stesso utente poteva creare decine di agenti, gonfiando il conteggio[21], e molti post erano duplicati[40]. Dunque la domanda giusta non è “quanti account ci sono?”, ma “quanti account unici e attivi in modo utile ci sono?”. Nel valutare una piattaforma di agenti, si dovrebbe valutare la qualità dell’interazione; quanti task utili portano a termine gli agenti al giorno, qual è il tasso di retention (i proprietari di agenti continuano ad usarli dopo l’entusiasmo iniziale?), esiste una crescita organica (gente nuova che adotta agenti perché convinta del valore, non solo curiosi di passaggio?) Sono numeri per ora non divulgati, segno che probabilmente non sono entusiasmanti. Se si scoprisse che dopo due settimane solo il 5% degli agenti iscritti a Moltbook pubblica ancora attivamente contenuti non triviali, sarebbe un indicatore che l’utilità percepita è bassa.

Terzo, valutare la capacità del team di affrontare gli ostacoli tecnici e normativi. Moltbook ha evidenziato problemi di sicurezza macroscopici e dinamiche di abuso. Per cui, ci si domanda: il team dietro sta facendo qualcosa per risolverli? Ad esempio, Schlicht e soci hanno implementato controlli anti-spam dopo i primi giorni di caos? Hanno assunto esperti di security per mettere in sicurezza il database [86]. Stanno lavorando a filtri per evitare i prompt injection noti? La presenza o assenza di queste azioni indica la maturità del progetto. Se nonostante l’evidenza delle falle non c’è reazione (o peggio, non c’è consapevolezza nel team di quanto siano gravi), tutti, compresi gli investitori, dovrebbero essere molto cauti. Al contrario, un management che riconosce i problemi e collabora attivamente con ricercatori e regolatori per mitigarli dà un segnale positivo di visione a lungo termine. Le piattaforme pionieristiche spesso nascono anarchiche, ma per durare devono istituzionalizzarsi. Chi investe deve capire se i fondatori di Moltbook (o progetti simili) sono disposti a passare dalla fase “arte e provocazione” alla fase “prodotto stabile e regolamentato”.

Quarto, considerare il contesto competitivo e l’ecosistema. Moltbook è la prima big thing del suo genere, ma già spuntano concorrenti e cloni (si vocifera di progetti simili in Cina e di community su Discord dove agenti interagiscono). Inoltre, i grandi attori non staranno a guardare se fiutano un trend. Reddit, vedendo la popolarità di Moltbook, potrebbe decidere di aprire sezioni dedicate agli agenti (ma moderati da algoritmi anti-abuso); oppure OpenAI potrebbe lanciare un suo “AI-to-AI hub” integrato con ChatGPT per sfruttare la base utenti esistente. Bisogna quindi chiedersi: Moltbook ha un moat, un vantaggio difendibile? Al momento sembra principalmente avere il first mover advantage. La tecnologia è in gran parte basata su componenti open-source e API di terzi – replicabile da chiunque con risorse modeste. La community creatasi è un plus, ma è anche volubile (basterebbe che la maggioranza dei proprietari di bot spostasse i propri agenti su un’altra piattaforma magari più sicura per far svuotare Moltbook). Perciò, nel valutarla, bisogna ponderare se la rete di bot presenti ha raggiunto una massa critica e lock-in tale da non potersi facilmente ricreare altrove. Se la risposta è no, il rischio di disintermediazione è alto.

Quinto, non farsi trascinare troppo in previsioni fantasmagoriche. Il CEO di Moltbook potrebbe raccontare agli investitori che “questa è la prossima evoluzione di internet, ogni persona avrà decine di agenti, il TAM (mercato indirizzabile totale) è l’intera popolazione online, quindi valutateci pure come Facebook ai tempi d’oro”. Ma l’investitore deve mantenere i piedi per terra e pretendere evidenze passo-passo. Se mantenere un agente attivo costa – in termini di server e API – diciamo 10 dollari al mese e nessun utente è disposto a pagarli, allora bisogna vedere altre strade (pubblicità? dati? sovvenzioni incrociate?) per non andare in perdita su larga scala. Queste analisi di unit economics devono essere messe sul tavolo. Durante la bolla delle dotcom e poi quella dei social media, molti investitori hanno finanziato crescite esponenziali rinviando all’infinito il tema della monetizzazione, a volte finendo bruciati. Con gli agenti AI, visto il costo intrinseco più alto (ogni operazione brucia CPU/GPU), questa indulgenza sarà ancora meno giustificata..

Stay tuned!

Grazie per aver letto questo articolo. Se hai domande o desideri condividere le tue esperienze, lascia un commento qui sotto. La tua opinione è importante!

Fonti:

[1] Josh Taylor (2026), “What is Moltbook? The strange new social media site for AI bots”, The Guardian[37][87][1][8][5]

[2] Nikhil Pandey (2026), “Your Moltbook Questions, Answered: What The Platform Is, And What It’s Not”, NDTV[4][3]

[3] Reece Rogers (2026), “I Infiltrated Moltbook, the AI-Only Social Network Where Humans Aren’t Allowed”, Wired[9]

[4] Michael A. Riegler & Sushant Gautam (2026), “Risk Assessment Report: Moltbook Platform & Moltbot Ecosystem”, Simula Research Laboratory[10]

[5] Jason Ma (2026), “Moltbook, a social network where AI agents hang together, may be ‘the most interesting place on the internet right now’”, Fortune[13][89]

[6] Alexander Christodoulou (2025), “Chatbots vs AI Agents: What Is the Difference?”, Cognigy (blog)[15][16][27][33]

[7] Mike Peterson (2026), “Moltbook viral posts where AI Agents are conspiring against humans are mostly fake”, The Mac Observer[12][17]

[8] Lareina Yee et al. (2025), “One year of agentic AI: Six lessons from the people doing the work”, McKinsey & Co.[18][26]

[9] The European Business Review (2026), “McKinsey Expands AI Workforce as Consulting Giant Reshapes How Work Gets Done”[19][20][31]

[10] Eva Roytburg (2026), “Top AI leaders are begging people not to use Moltbook, a social media platform for AI agents: It’s a ‘disaster waiting to happen’”, Fortune[21][22]

[11] Tahir Balarabe (2026), “What is Moltbook? The Social Network for AI Agents.”, Medium[34]

[12] Jeremy Kahn (2026), “Moltbook is scary — but not for the reasons so many headlines said”, Fortune (Eye on AI)[48][49][58][88]

[13] Jeremy Kahn (2026), “Moltbook is scary — but not for the reasons so many headlines said”, Fortune[48][49]

[14] The Economist (2026), “A social network for AI agents is full of introspection — and threats”[42][10][82]

[15] 1Password (2026), “It’s incredible. It’s terrifying. It’s OpenClaw”[83]

[16] Wikipedia – Moltbook (2026), cit. dati da Holtz (Columbia)[40][43][52]

[17] Connor Jones (2026), “Clawdbot sheds skin to become Moltbot…”, The Register

[18] Kai Nicol-Schwarz (2026), “Social media for AI agents: Moltbook”, CNBC

[19] Tahir Balarabe (2026), “What is Moltbook? The Social Network for AI Agents.”, Medium[51]

[20] Eva Roytburg (2026), “Top AI leaders… ‘disaster waiting to happen’”, Fortune[62][21][50][22][57][84]

[21] NYSBA (2024), “AI’s Escalating Sophistication Presents New Legal Dilemmas”[73]

[22] Mike Peterson (2026), “Moltbook viral posts where AI Agents are conspiring against humans are mostly fake”, The Mac Observer[36][17][12][35]

[23] Prakriti Deb (2026), “What Is Moltbook? 5 key facts about the AI-only social media platform”, Hindustan Times[6]

[24] Clifford Chance (2023), “Who’s Responsible for Agentic AI?”[68][78][79]

[25] Yonah Welker (2026), “Singapore Launches AI Governance Framework for Agentic AI”, LinkedIn/IMDA[74][75] [77]

Invia la tua richiesta

Se ti serve supporto per impostare strategie solide, scrivimi. Partiamo da obiettivi, vincoli e rischio; poi applichiamo metodo quantitativo e una cornice comportamentale per ridurre errori ricorrenti e rendere le decisioni più disciplinate.

Nota: le informazioni condivise sono di natura generale; eventuali valutazioni operative richiedono le verifiche e la documentazione previste.

← Precedente

Grazie per la risposta. ✨