La nuova era dell’hacking con Intelligenza Artificiale (AI) è alle porte, nulla sarà più come prima

L’era dell’oro dell’Hacking tramite Intelligenza Artificiale (AI) potrebbe seriamente essere più vicina di quanto si pensi. L’umanità è pronta ad affrontare questo nuovo dirompente fenomeno?

Gli algoritmi hanno difficoltà a comprendere l’ambiguità umana. Tuttavia, queste peculiarità sono una debole difesa contro la minaccia rappresentata dagli hacker black hat e criminali informatici che fanno uso dell’intelligenza artificiale (AI) per i propri scopi.

hacker intelligenza artificiale ai
Adobe Stock

A seconda del particolare sistema che viene modellato e compromesso, la sua fattibilità può variare. Al momento tutte le leggi dell’ambiente devono essere definite in un linguaggio che il computer possa comprendere, affinché un’intelligenza artificiale possa anche solo iniziare a ottimizzare una soluzione esistente. E ancor meno crearne una completamente nuova. Devono essere fissati degli obiettivi, chiamati funzioni obiettivo nell’AI. Affinché l’IA possa migliorare le sue prestazioni, ha bisogno di un qualche tipo di feedback su come sta operando.

A volte questo non è un problema. È semplice per un gioco come Go. Hai avuto successo o hai fallito in base ai criteri, ai risultati e al feedback?.

Poiché il “mondo” dell’intelligenza artificiale di ChatGPT-3 è costituito interamente da testo, può produrre saggi coesi. È per questo che le ambientazioni simulate sono il luogo in cui si trova la maggior parte delle istanze esistenti di hacking di obiettivi e ricompense. Sono artificiali e limitati, con l’IA che riceve determinate istruzioni.

Questo articolo rappresenta una libera ispirazione a A Hacker’s Mind di Bruce Schneier: How the Powerful Bend Society’s Rules, and How to Bend The Back di Bruce Schneier

L’intelligenza artificiale (AI): un vantaggio sleale in mano ad hacker criminali informatici

Ciò che conta è il grado di ambiguità presente in un sistema. Poiché il sistema fiscale è costituito da formule che calcolano l’importo delle imposte dovute, si può pensare di dare in pasto a un’Intelligenza Artificiale le diverse leggi fiscali del mondo.

Anche un linguaggio informatico, Catala, è stato progettato proprio per incapsulare materiale giuridico. Ciononostante, ogni legge presenta qualche incertezza. UN’Intelligenza Artificiale (AI) avrà difficoltà a gestire l’ambiguità perché è difficile da convertire in codice. Nonostante l’Intelligenza Artificiale (AI), gli avvocati fiscalisti continueranno a essere molto richiesti nel prossimo futuro.

La maggior parte dei sistemi umani presenta un’ambiguità molto maggiore. La curvatura di una mazza da hockey è un hack sportivo difficile da capire per un’Intelligenza Artificiale (AI). Una AI dovrebbe comprendere non solo le regole del gioco. Ma anche aspetti come la fisiologia umana, l’aerodinamica del bastone e del disco, e così via. Non è impossibile, ma sarebbe più difficile che pensare a una nuova mossa di Go.

Una prima barriera di difesa

Una barriera di sicurezza a breve termine contro l’hacking delle Intelligenza Artificiale (AI) è fornita dall’ambiguità latente presente nelle reti sociali complesse. A meno che gli androidi non siano in grado di partecipare a questi sport. O finché non verrà creata un’IA generica in grado di comprendere ampiamente l’universo in tutte le sue dimensioni intersecanti. Non avremo hacking sportivi generati dall’Intelligenza Artificiale (AI).

Gli hack del processo legislativo o dei giochi da casinò rappresentano un problema analogo. Ci vorrà molto tempo prima che le IntelligenzE ArtificialI (AI) riescano a capire e simulare il funzionamento delle persone, sia individualmente che in gruppo, e ci vorrà ancora più tempo prima che riescano a escogitare nuove tecniche per aggirare le procedure legislative.

Sebbene una società invasa da hacker dell’Intelligenza Artificiale (AI) sia ancora un tema da fantascienza, non è un’ipotesi così insensata. Almeno alla luce degli ultimi sviluppi. L’Intelligenza Artificiale (AI) sta avanzando a un ritmo imprevedibile e discontinuo, con rapidi balzi di capacità. Sia le cose che inizialmente credevamo difficili, sia quelle che inizialmente credevamo semplici, si sono rivelate difficili. All’inizio degli anni ’80, quando ero uno studente universitario, ci fu insegnato che il gioco del Go era così complesso – non per le regole, ma per l’enorme numero di mosse possibili – che un computer non avrebbe mai potuto impararlo. I grandi maestri di Go sono attualmente delle Intelligenze Artificiale.

Quindi, anche se l’IA può essere prevalentemente una preoccupazione del futuro, stiamo assistendo ai suoi precursori. Se c’è una cosa su cui possiamo contare con l’Intelligenza Artificiale (AI), è che avremo bisogno di queste risposte prima del previsto, quindi dobbiamo iniziare a pensare a soluzioni applicabili, intelligibili ed etiche.

Intelligenza artificiale (AI) e sistema finanziario

I sistemi finanziari sono probabilmente il primo luogo in cui cercare gli attacchi generati dall’IA, poiché i loro regolamenti sono progettati per essere trattabili algoritmicamente. Gli algoritmi di trading ad alta frequenza ne sono una semplice illustrazione, ma alla fine diventeranno molto più complessi.

Possiamo immaginare di dotare un’intelligenza artificiale di tutte le informazioni finanziarie del mondo in tempo reale, di tutte le leggi e i regolamenti del mondo, di newsfeed e di qualsiasi altra cosa riteniamo possa essere rilevante. E ci saranno indubbiamente alcuni hack che saranno incomprensibili per gli esseri umani. Non saremo quindi in grado di rilevarli.

È più probabile che nel prossimo futuro si assista a un hacking cooperativo tra Intelligenza Artificiale (AI) e uomo. Un commercialista o un avvocato fiscale competente userebbe la propria abilità e il proprio giudizio per determinare se quella debolezza potrebbe essere sfruttata finanziariamente una volta che l’IA ha identificato un buco potenzialmente sfruttabile dall’hacker.

In quasi tutta la storia, solo gli uomini si sono dedicati all’hacking. Trovare nuovi hack richiede conoscenza, pazienza, ingegno e fortuna. Le cose cambieranno quando le Intelligenze Artificiali (AI) inizieranno a fare hacking. Le IA non saranno soggette alle stesse restrizioni o limitazioni degli esseri umani. Non avranno bisogno di riposo. Avranno una mentalità aliena. Inoltre, entreranno nei sistemi in modi che non possiamo prevedere.

L’intelligenza artificiale potenzierà l’hacking in modi ancora impensabili

In termini di velocità, scala, ampiezza e complessità, i computer hanno accelerato l’hacking. Gli effetti dell’Intelligenza Artificiale (AI) peggioreranno queste tendenze. Queste sono le principali difficoltà che l’AI può risolvere nel campo dellòhacking

Velocità

l processo di hacking umano, che a volte può richiedere mesi o anni, potrebbe essere accelerato a giorni, ore o addirittura secondi. Cosa succederebbe se si desse a un’intelligenza artificiale l’intero codice fiscale degli Stati Uniti e le si dicesse di ricercare ogni possibile strategia per ridurre le imposte dovute? O, nel caso di un’azienda globale, di esaminare e migliorare tutte le leggi fiscali del pianeta?

Potrebbe un’intelligenza artificiale stabilire da sola che la costituzione nel Delaware e la registrazione di una nave a Panama sono decisioni intelligenti? Riuscirà a scoprire qualche difetto o debolezza di cui non siamo a conoscenza? Decine? Centinaia? Migliaia? Anche se non lo sappiamo, probabilmente lo scopriremo entro i prossimi dieci anni.

Scala

Quando i sistemi di intelligenza artificiale inizieranno a trovare le falle, saranno in grado di sfruttarle su una scala per la quale non siamo attrezzati. Così, quando le AI inizieranno a elaborare i sistemi finanziari, finiranno per impadronirsi di quel mercato. Il nostro sistema fiscale, i mercati del credito e le normative in generale favoriscono già i ricchi. L’Intelligenza Artificiale (AI) peggiorerà questa disuguaglianza. Non saranno i ricercatori egualitari a creare le prime AI per l’hacking finanziario, ma le banche multinazionali, gli hedge fund e i consulenti di gestione.

Campi di applicazione

Sebbene la nostra società disponga di procedure per affrontare gli attacchi informatici, questi sistemi sono stati creati quando gli hacker erano ancora umani e progredivano a una velocità per loro accettabile. Non disponiamo di una struttura di governance in grado di decidere tempestivamente ed efficacemente su un afflusso di centinaia, per non parlare di migliaia, di nuove scappatoie fiscali individuate.

La legge fiscale non può essere sistemata così rapidamente. È difficile immaginare cosa accadrebbe se un’Intelligenza Artificiale (AI) usasse Facebook per minare la democrazia, cosa che non siamo stati in grado di impedire alle persone di fare. Se le IA iniziano a sviluppare hacking del sistema finanziario inaspettati ma legali che mandano in tilt l’economia globale, il periodo di recupero sarà lungo e spiacevole.

Sofisticazione

Gli hack assistiti dall’Intelligenza Artificiale (AI) consentono di creare piani sofisticati che vanno oltre le capacità dell’intelletto umano non assistito. Gli strateghi e gli specialisti più abili potrebbero non aver mai notato le correlazioni tra i fattori che possono essere rivelate dagli studi statistici avanzati delle IA. Grazie alla loro sofisticazione, le IA potrebbero essere in grado di impiegare tattiche che minano il sistema bersaglio a diversi livelli.

Ciò estenderebbe la rivoluzione che il software di mappatura ha portato al gerrymandering a tutti gli aspetti della democrazia. Per esempio, un’intelligenza artificiale progettata per massimizzare la quota di voti di un partito politico potrebbe determinare una combinazione precisa di variabili economiche, messaggi di campagna e modifiche procedurali di voto che potrebbero fare la differenza tra la vittoria e la sconfitta elettorale. Senza contare i metodi subdoli che un’IA potrebbe consigliare per influenzare il mercato azionario, i quadri governativi o l’opinione pubblica.

L’hacking diventerà un problema che la società nel suo complesso non potrà più gestire con il ritmo, la scala, l’ampiezza e la complessità dei computer.

I pericoli dell’intelligenza artificiale (AI) per gli equilibri sociali

Sovviene ora la frase che Kyle Reese usa per descrivere il cyborg che perseguita Sarah Connor nel film Terminator: “Non si può trattare con lui. Non si può discutere con lui. Non prova compassione, rimpianto o paura”. Per fortuna non abbiamo a che fare con dei cyborg assassini. Ma quando l’AI diventerà il nostro nemico nel campo del social hacking, potrebbe essere difficile tenere testa alla sua capacità sovrumana di cercare i nostri punti deboli.

Alcuni ricercatori nel campo delle AI sono preoccupati per la misura in cui le Intelligenze Artificiali (AI) forti potrebbero trascendere le limitazioni che gli esseri umani hanno posto su di loro e, eventualmente, arrivare a governare la civiltà. Questa situazione merita almeno una riflessione e una prevenzione, nonostante possa sembrare una speculazione folle.

Ma l’hacking descritto in questo libro sarà attuato contro i deboli nel presente e nel prossimo futuro dai potenti. Tutte le intelligenze artificiali (AI) sono progettate da altre persone, spesso nel loro interesse e non nel vostro, sia che si trovino sul vostro computer portatile, online, o in un robot. Sebbene un gadget connesso a Internet come Alexa possa dare l’impressione di essere il vostro amico affidabile, tenete presente che il suo scopo principale è quello di promuovere i prodotti di Amazon.

Così come il sito web di Amazon vi incoraggia a scegliere le sue etichette rispetto ai prodotti di qualità superiore della concorrenza. Non sempre opera nel vostro interesse. La vostra fiducia nell’impegno di Amazon verso gli obiettivi dei suoi azionisti sarà violata.

In assenza di una legislazione significativa, non possiamo fare molto per impedire l’hacking dell’intelligenza artificiale. Dobbiamo riconoscere che l’hacking si verificherà e mettere in atto istituzioni di governance forti che possano reagire in modo rapido ed efficiente neutralizzando gli hack ostili o involontariamente dannosi e normalizzando quelli utili al sistema.

Quali hack si possono definire utili?

È un argomento che pone problemi più complessi e difficili di come si svilupperà l’Intelligenza Artificiale (AI) o di come le istituzioni potrebbero adattarsi ad essa. Quali sono dannosi? E chi prende le decisioni? Se credete che il governo debba essere così piccolo da poter stare in una vasca da bagno, probabilmente credete che le misure che indeboliscono il potere del governo di manipolare i suoi sudditi siano generalmente benefiche.

Tuttavia, potreste non voler sostituire i governanti politici con quelli tecnici. Se aderite al principio di cautela, dovreste testare e valutare gli hack con il maggior numero possibile di esperti prima di consentirne l’ingresso nelle nostre istituzioni sociali. Più a monte, verso le istituzioni e le strutture che permettono questi hack, si potrebbe voler usare la stessa logica.

Le domande continuano ad arrivare

Gli hack prodotti dall’Intelligenza Artificiale (AI) dovrebbero essere soggetti a una regolamentazione locale o internazionale, agli amministratori o a un voto del popolo? O c’è un modo per lasciare che siano il mercato o le organizzazioni della società civile a decidere?

I quadri normativi che svilupperemo daranno a determinati individui e organizzazioni la possibilità di scegliere gli hack che daranno forma al futuro. Gli attuali sforzi per applicare modelli di governance agli algoritmi sono un primo segnale di come si procederà. Dobbiamo assicurarci che questa autorità sia usata in modo responsabile. La posta in gioco, stavolta, è decisamente alta.

Impostazioni privacy