Se non sapremo gestirla correttamente, l’IA diventerà sempre più una potenziale fonte di pericolo per le nostre attività.
Le Intelligenze Artificiali hanno fatto il loro ingresso dirompente sullo scenario mondiale ormai poco più di un anno fa, ma in un tempo così breve hanno già dimostrato ampiamente il loro potenziale. Interi settori lavorativi saranno fortemente influenzati da queste nuove tecnologie nei prossimi anni e i commentatori più pessimisti hanno già avvertito l’opinione pubblica degli ingenti danni che questi sistemi potrebbero causare all’umanità intera.
Oltre alla possibilità che le IA rubino milioni di posti di lavoro, però, recentemente è stata scoperta anche un’altra grave minaccia legata a loro. Questi sistemi sono in grado di generare testi ed elaborare informazioni proprio come farebbe un essere umano e, dato l’alto livello di qualità dei loro prodotti, professionisti di tutti i settori tendono già a fidarsi molto di loro. Ma cosa succederebbe se un giorno ChatGPT cominciasse a fornire informazioni completamente sbagliate in risposta agli input degli utenti? Saremmo in grado di accorgercene? È proprio questo l’allarme lanciato a un noto comitato che si occupa di sicurezza informatica.
Un primo esempio di come le IA possono rivelarsi strumenti pericolosi
National Institute of Standards and Technology (NIST) ha scoperto che diversi gruppi di criminali informatici e hacker stanno attaccando i sistemi di IA più diffusi per far sì che comincino a diffondere dati e informazioni errati. Gli esperti del NIST hanno rivelato che questi attacchi informatici, noti come “adversarial machine learning threats”, possono sostanzialmente “avvelenare” e corrompere i sistemi di IA, provocando malfunzionamenti e comportamenti pericolosi.
Il report del NIST, intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations”, ha evidenziato che gli hacker hanno sviluppato diverse tecniche di avvelenamento: in alcuni casi manipolano gli input degli utenti in fase operativa, mentre in altri riescono a introdurre dati corrotti durante la fase di addestramento. Con questa seconda tecnica, ad esempio, sono riusciti a indurre un chatbot a produrre risposte con informazioni totalmente infondate e addirittura razziste.
Questa realtà presenta una sfida significativa per gli sviluppatori e gli utenti di tecnologie basate sull’IA. Da una parte, gli sviluppatori devono essere vigili e continuamente aggiornati sulle ultime tecniche di difesa contro gli attacchi avversari. Dall’altra, per il momento la maggiore responsabilità ricade purtroppo sugli utenti, che devono rimanere consapevoli delle potenziali minacce che possono emergere dall’uso di queste tecnologie. Assuefarsi all’utilizzo di strumenti come ChatGPT o Bard, dando per scontato che le loro risposte siano corrette, può portare ad avere diversi problemi.