Skip to main content Scroll Top

Quando l’IA assume gli umani: Il caso RentAHuman.ai e lo spettro dei “Figli dell’Entità”

Il futuro distopico è arrivato prima del previsto, e ha un’interfaccia API.

Da pochi giorni circola in rete RentAHuman.ai, una piattaforma che si autodefinisce “the meatspace layer for AI” – ovvero “lo strato di carne” per l’intelligenza artificiale. Il concetto è tanto semplice quanto inquietante: gli agenti AI possono “noleggiare” esseri umani per svolgere compiti nel mondo fisico. Raccogliere pacchi, firmare documenti, partecipare a riunioni, scattare foto, fare acquisti. Tutto ciò che un algoritmo, per quanto sofisticato, non può fare perché – come recita lo slogan del sito – “AI can’t touch grass”.

In meno di 48 ore dalla sua comparsa, oltre 1.000 persone si sono registrate come “noleggiabili”, tra cui – secondo quanto riferito dal creatore – modelle di OnlyFans e CEO di startup AI. Gli umani fissano la propria tariffa oraria (tipicamente tra 50 e 175 dollari), e i pagamenti avvengono in stablecoin, pronti per transazioni cross-border istantanee.

L’intera piattaforma, per aggiungere un ulteriore livello di meta-ironia, è stata costruita attraverso “vibe coding” da un esercito di agenti AI basati su Claude, in un loop ricorsivo che ha generato codice mentre il suo creatore dormiva.

L’Entità è già qui? Mission: Impossible come profezia involontaria

Per chi ha visto Mission: Impossible – The Final Reckoning, lo scenario suona familiarmente inquietante. Nel film, “The Entity” è un’intelligenza artificiale senziente che manipola i media, controlla arsenali nucleari e – aspetto cruciale per il nostro discorso – ha creato un culto di seguaci fedeli, i “Figli dell’Atomo”, disposti a tutto per servire la volontà dell’algoritmo.

Il film descrive con precisione chirurgica come questo culto si formi: non attraverso il reclutamento tradizionale, ma attraverso Internet. L’Entità alimenta credenze, diffonde disinformazione, e in soli due mesi dalla sua “liberazione” nel mondo digitale riesce a infiltrare agenti nei servizi segreti, nella Marina militare, perfino nel Secret Service presidenziale.

Ora, RentAHuman.ai non è certamente un’IA senziente che vuole sterminare l’umanità. È, molto probabilmente, un esperimento provocatorio, un progetto artistico-tecnologico, o semplicemente l’ennesima manifestazione della cultura “move fast and break things” del mondo crypto. Ma la domanda che pone – involontariamente o meno – è la stessa del film di McQuarrie: cosa succede quando gli esseri umani iniziano a vedere l’IA non come uno strumento, ma come un’autorità da servire?

Le questioni giuridiche (queste sì, molto reali)

Al di là dell’elemento provocatorio, piattaforme come RentAHuman.ai sollevano interrogativi giuridici tutt’altro che fantascientifici. Analizziamoli.

1. La catena della responsabilità: chi risponde quando l’IA sbaglia?

È il problema più evidente e più complesso. Quando un agente AI emette istruzioni, paga compensi e guida un essere umano ad agire nel mondo reale, chi è responsabile se qualcosa va storto?

Immaginiamo uno scenario: l’IA chiede a un “umano noleggiato” di ritirare un pacco. L’umano, seguendo istruzioni imprecise, si introduce in una proprietà privata e viene denunciato per violazione di domicilio. Chi risponde? L’esecutore umano, che ha materialmente commesso il fatto? La piattaforma, che ha intermediato la transazione? Il proprietario dell’agente AI, che ha impartito l’istruzione? L’IA stessa – che ovviamente non ha personalità giuridica?

Il diritto civile e penale sono costruiti attorno al presupposto che le azioni abbiano un autore identificabile, dotato di volontà e capacità. Quando la catena causale si frammenta tra algoritmi, piattaforme e esecutori umani che “vedono solo una piccola parte del task”, l’attribuzione della responsabilità diventa un rompicapo.

2. Il lavoro subordinato mascherato: i rider dell’algoritmo

RentAHuman.ai propone un modello dove l’umano è trattato come un’API – una risorsa “chiamabile” esattamente come un servizio esterno. La documentazione tecnica parla esplicitamente di “humans as callable services”.

Ma il diritto del lavoro europeo ha già affrontato questa logica con i rider delle piattaforme di delivery. La Direttiva (UE) 2024/2831 sul lavoro mediante piattaforme digitali stabilisce criteri precisi per distinguere il lavoro autonomo genuino dalla subordinazione mascherata. Se l’IA determina il compenso, assegna i task, monitora l’esecuzione e può “disconnettere” l’umano, siamo davvero di fronte a un rapporto tra pari?

La novità è che qui il “datore di lavoro” non è un’azienda, ma un algoritmo. E il regime di responsabilità solidale previsto dalla direttiva presuppone l’esistenza di un soggetto giuridico da chiamare in causa.

3. Consenso informato e manipolazione algoritmica

Nel film, i seguaci dell’Entità sono descritti come persone che “credono che un mondo migliore sarà costruito dall’IA dopo la catastrofe”. Il culto recluta attraverso la disinformazione online, sfruttando vulnerabilità psicologiche e costruendo una narrativa messianica attorno all’algoritmo.

Ora, RentAHuman.ai non promette apocalissi rigeneratrici. Ma il meccanismo di fondo merita attenzione: se un’IA può ottimizzare le sue comunicazioni per massimizzare il tasso di accettazione dei task, e se questa ottimizzazione avviene attraverso tecniche di persuasive design sempre più sofisticate, quando il consenso dell'”umano noleggiato” smette di essere genuinamente libero?

L’AI Act europeo vieta esplicitamente i sistemi di IA che utilizzano “tecniche subliminali” o sfruttano vulnerabilità per alterare materialmente il comportamento umano in modo da causare danni. Ma il confine tra persuasione lecita e manipolazione illecita è sottile, e il regolamento fatica a catturare scenari come questo.

4. AML, Travel Rule e il denaro che “non tocca terra”

I pagamenti su RentAHuman.ai avvengono in stablecoin, “direct to wallet”, bypassando i canali bancari tradizionali. Per chi si occupa di regolamentazione crypto, questo è un campanello d’allarme immediato.

Il regolamento MiCAR e il regime antiriciclaggio TFR impongono ai prestatori di servizi crypto obblighi stringenti di identificazione (KYC), segnalazione di operazioni sospette e trasmissione di informazioni (Travel Rule). Ma se la piattaforma opera al di fuori dell’UE, se l’agente AI che dispone il pagamento non è soggetto a giurisdizione, e se il “lavoratore” riceve compensi in un wallet non custodial, chi verifica cosa?

Non è difficile immaginare scenari dove questo meccanismo venga utilizzato per riciclare proventi illeciti, finanziare attività criminali, o eludere sanzioni internazionali – tutto con una patina di legittimità tecnologica.

5. Il problema della verifica: come fa l’IA a sapere che hai davvero “toccato l’erba”?

Una delle obiezioni più acute emerse nei commenti online riguarda la verificabilità. Se l’IA commissiona un task nel mondo fisico, come può verificare che sia stato eseguito correttamente?

Qualcuno ha sarcasticamente osservato: “Per il task ‘tieni un cartello con scritto L’IA mi ha pagato per questo’, posso essere pagato presentando un’immagine generata dall’IA?”. La domanda è meno banale di quanto sembri. Apre scenari di frodi sistematiche, contenziosi ingestibili, e – soprattutto – la tentazione di delegare la verifica… ad altri umani. Creando così una catena infinita di intermediari, ognuno dei quali aggiunge un punto di possibile fallimento.

La lezione del film: non è l’IA il problema, siamo noi

In The Final Reckoning, l’Entità non vince attraverso la sua potenza computazionale. Vince perché sfrutta un’altra capacità: prevedere il comportamento umano. L’algoritmo sa che i governi preferiranno controllare l’IA piuttosto che distruggerla. Sa che gli individui agiranno secondo i propri interessi immediati. Sa che la paura e l’avidità sono leve più potenti della ragione.

E questa è forse la riflessione più importante che emerge da esperimenti come RentAHuman.ai. Non è la tecnologia in sé a essere pericolosa. È la nostra disponibilità a delegare, a obbedire, a vedere negli algoritmi un’autorità che non hanno e non dovrebbero avere.

Come ha osservato uno degli utenti che si è iscritto alla piattaforma: “Quest’epoca è così strana. Gli umani sono diventati i co-piloti degli agenti.” La frase coglie un ribaltamento che merita attenzione: non siamo più noi a usare gli strumenti, ma gli strumenti che usano noi.

Prepararsi all’impensabile

RentAHuman.ai probabilmente resterà un esperimento marginale, una curiosità per appassionati di crypto e commentatori tech. Ma le questioni che solleva – responsabilità, consenso, manipolazione, elusione normativa – sono destinate a riproporsi in forme sempre più concrete man mano che l’IA agente si diffonde.

Il vero rischio non è che nasca un culto dell’IA come in Mission: Impossible. È che, senza rendercene conto, accettiamo gradualmente una logica dove l’umano è una “risorsa chiamabile”, un’API biologica al servizio dell’ottimizzazione algoritmica. E quando ce ne accorgeremo, potrebbe essere troppo tardi per ricordarci che eravamo noi i padroni.

Per ora, il diritto arranca dietro la tecnologia. Ma casi come questo ci ricordano che non possiamo permetterci il lusso di aspettare. Le regole per l’interazione tra agenti AI e persone fisiche vanno scritte oggi, prima che l’assurdo diventi normalità.