Secondo gli analisti, l’IA è lontana dal causare una disoccupazione di massa. Ma sta già prendendo il sopravvento su privacy, autonomia e forza lavoro
Da diversi anni, ormai, aleggia nel mondo del lavoro il timore di vedersi sostituiti da intelligenze artificiali molto più veloci, dotate e precise degli esseri umani.
In realtà, almeno per ora, non esistono macchine in grado di minacciare esistenzialmente l’umanità.
Tuttavia, sono abili nel creare insicurezza e ansia, diminuire il potere del lavoro organizzato e aumentare la redditività.
Le nuove frontiere della tecnologia nel lavoro non puntano – e, in molti casi, non sono realmente in grado – ad automatizzare il lavoro. Bensì, a sovvertire la sindacalizzazione e a minare autogestione, riservatezza e diritti del lavoro.
E tutto ciò sta già accadendo, mentre i lavoratori cercano di adottare misure contro la natura invasiva dell’IA.
IA nel lavoro: i robot che ci sostituiranno “sono ancora fantascienza”
L’impatto dell’IA nel lavoro, come spiegano i ricercatori Omar Ocampo e A.J. Schumann, non corrisponde a quello che siamo portati a immaginare.
Le previsioni di un futuro guidato dall’intelligenza artificiale vanno da apocalittiche acquisizioni di robot a fiorenti società post-lavoro in cui le persone vivono della ricchezza prodotta dalle macchine.
Nonostante questi sogni ad occhi aperti, i robot con piena cognizione umana sono ancora ben all’interno del dominio della fantascienza
Il progetto delle auto senza conducente è fallito, in una società alle prese con piani per riformare le ferrovie o legiferare per gli scooter elettrici.
McDonald’s, che aveva introdotto un nuovo sistema di ordinazione automatizzato nei suoi punti vendita statunitensi, dopo una serie di incidenti comici ha deciso “di porre fine alla nostra attuale partnership globale con IBM su AOT (Automated Order Taking)“.
Come se non bastasse, sono quotidianamente virali le risposte no-sense di “AI Overview“, l’assistente AI di Google.
Eppure, aziende e investitori sembrano propense ad alimentare il timore dell’IA nel lavoro.
Per quanto riguarda gran parte delle industrie tecnologiche statunitensi, sono quasi due terzi i dirigenti che considerano come priorità strategica quella di automatizzare le attività tipicamente svolte dai dipendenti. Nella maggior parte dei casi, si parla di implementazione dell’intelligenza artificiale.
Goldman Sachs, ad esempio, prevede che l’IA generativa arriverà a sostituire “almeno un quarto dei lavori attualmente svolti da esseri umani“.
Sam Altman, CEO di OpenAI, prevede che “i posti di lavoro scompariranno sicuramente, punto e basta“.
Questi rapporti e forum pubblici, di conseguenza, alimentano insicurezza e ansia sul posto di lavoro.
Secondo un recente sondaggio (condotto dal 4 all’8 dicembre da SurveyMonkey su un campione nazionale di 7.776 lavoratori negli Stati Uniti), il 42% dei dipendenti è preoccupato per l’impatto della tecnologia sul proprio lavoro. Tra i singoli contributori, il 44% ha dichiarato di essere “molto o abbastanza preoccupato“, rispetto al 38% dei manager o più.
Il motivo di questa tendenza a ingigantire il potere dell’IA, che però risulta solo apparente, è spiegato ancora da Ocampo e Schumann.
C’è una risposta semplice a questa domanda: l’IA è pubblicizzata dalle aziende per attirare capitali dagli investitori e gli investitori vogliono aumentare i loro profitti diminuendo il potere del lavoro organizzato.
Per dirla in modo ancora più succinto, il catastrofismo dell’IA è solo un booster dell’IA vestito in modo diverso.Lo sviluppo dell’intelligenza artificiale è un’attività costosa e gli imprenditori devono attrarre capitali di rischio significativi per essere in grado di mantenere le loro attività a galla. Ciò ha spinto alcune aziende a esagerare o travisare le loro capacità di intelligenza artificiale.
La maggior parte delle aziende di intelligenza artificiale continua a non essere redditizia, ma i venture capitalist stanno ancora inondando il settore con miliardi di dollari
Una speranza che è molto significativa per la classe dei proprietari, come ha spiegato l’architetto del cloud, Dwayne Monroe, in un’intervista con The Nation.
Una speranza che non consiste nel costruire una società futuristica a livelli fantascientifici, ma una basata su sistemi automatizzati che ne monitorino ogni aspetto.
La promozione dell’idea, indipendentemente dalle capacità esistenti, è attraente per la classe proprietaria perché mantiene la promessa di indebolire la forza lavoro e di aumentare, attraverso la riduzione dei costi della forza lavoro e una maggiore scalabilità, la redditività.
Dico promozione, perché c’è un grande divario tra il clamore del marketing e la realtà.
Il risultato più importante dell’IA non sono le macchine pensanti, un obiettivo ancora remoto, ma una popolazione demoralizzata, sottoposta a un labirinto di fragili sistemi automatizzati venduti come migliori delle persone che sono costrette a navigare nella vita attraverso questi sistemi
La tecnologia militare nei posti di lavoro: a rischio la sindacalizzazione
Gran parte della tecnologia dell’IA che viene venduta alle aziende proviene dal settore militare, che fornisce gli strumenti per sovvertire e interrompere gli sforzi di sindacalizzazione.
Decenni fa, servizi come “intelligence open source“, “gestione della reputazione” e “valutazione delle minacce interne“, venivano sviluppati da appaltatori della difesa ad uso esclusivo dell’intelligence.
Il loro ruolo era quello di colpire i nemici antidemocratici, per salvaguardare la libertà e i diritti dei cittadini.
Salvo, poi, offrire costosi abbonamenti a dirigenti e datori di lavoro, per utilizzare quelle stesse tecnologie militari all’interno delle proprie aziende private.
Oggi, con gli ultimi sviluppi in materia di deep learning e raccolta dati, per un’azienda è facile monitorare l’organizzazione del lavoro, i leaker interni e i critici dell’azienda.
Le aziende produttrici, da parte loro, dichiarano di agire in un contesto del tutto legale. Il loro obiettivo è aiutare i datori di lavoro a “capire l’ambiente sindacale“.
I loro sono strumenti di “monitoraggio della consapevolezza aziendale“, e resta il fatto che “ogni americano è protetto dalle leggi federali, statali e locali per lavorare in condizioni di sicurezza“.
Tra queste c’è, ad esempio, Fivecast.
Nata come startup antiterrorismo, i suoi servizi di tecnologia IA, inizialmente riservati all’esercito, sono diventati presto strumenti nelle mani di aziende e forze dell’ordine. Utili per raccogliere e analizzare tutti i tipi di dati disponibili pubblicamente. Inoltre, non identificano solo parole chiave, ma anche reti di persone, oggetti, immagini, loghi, emozioni e concetti.
Così che le aziende, ad esempio, siano in grado di prevedere gli scioperi. E quindi evitarli.
Oppure, possono identificare i principali organizzatori del lavoro in modo da licenziarli (illegalmente) prima della formazione di un sindacato. O persino evitare di assumerli, in fase di reclutamento.
Il tutto, con un alto tasso di errore. Molti metodi di analisi della rete assegnano il rischio per associazione, il che significa che potresti essere segnalato semplicemente per aver seguito una particolare pagina o account.
Possono anche essere ingannati da contenuti falsi, e il rilevamento delle emozioni è parziale e basato su presupposti errati.
Ma questo non preoccupa le aziende. La sola presenza di un sistema di sorveglianza routinizzato, semiautomatico e antisindacale è sufficiente per avere un effetto raggelante su associazioni, intenzioni, emozioni e pensieri dei lavoratori.
IA nel lavoro: il problema non è la sostituzione, ma la sorveglianza
Se, dunque, non c’è da temere una disoccupazione di massa, è comunque importante osservare come agisce l’intelligenza artificiale nei luoghi di lavoro.
Il rischio, secondo i ricercatori, è che le aziende si trasformino in “un panopticon elettronico in cui i lavoratori sono costantemente visibili a un osservatore invisibile che viola la loro autonomia, privacy e diritti del lavoro”.
Già in molti casi, infatti, l’implementazione dell’IA nel lavoro ha contribuito a rendere più invadente il controllo manageriale.
Chevron e Starbucks, per esempio, utilizzano software di intelligenza artificiale per monitorare le comunicazioni dei loro dipendenti e verificarne l’eventuale malcontento.
Amazon ha costretto all’installazione di telecamere alimentate da IA, che, se da una parte aumentano la sicurezza dei conducenti, dall’altra sono progettate per penalizzare i conducenti che commettono “errori” come mettere mani alla radio del veicolo.
Molti ospedali hanno iniziato a monitorare gli infermieri attraverso badge con sensori che indicano quando si lavano le mani, mentre Uber controlla i propri conducenti tramite i loro smartphone.
A fronte di queste situazioni, i lavoratori hanno risposto con misure proattive, affidando le loro preoccupazioni ad agenzie e sindacati.
L’obiettivo, secondo Jennifer Abruzzo, consigliere generale del National Labor Relations Board (NLRB), non è solo proteggere i lavoratori da pratiche illegali. Ma di richiamare l’attenzione dei responsabili politici perché prendano in considerazione ulteriori misure legislative.
Molte delle tecnologie di intelligenza artificiale utilizzate dai datori di lavoro sono già illegali ai sensi della legge consolidata […] adottare un quadro per proteggere i dipendenti dalla sorveglianza e dalla gestione algoritmica che interferisce con l’attività protetta