Una ricerca mette a nudo i veri pericoli dell’intelligenza artificale (AI), da non credere

Stando a quanto riportato dalla famosa agenzia di ricerca e consulenza Gartner, ci sono tre aree che devono essere gestite il più rapidamente possibile oggi che l’intelligenza artificiale (AI) sta crescendo a ritmi sempre più forsennati: la proprietà intellettuale, la privacy dei dati e la sicurezza informatica.

La generazione di modelli di intelligenza artificiale come ChatGPT di OpenAI è stata identificata come il secondo pericolo in crescita per le aziende in un recente sondaggio condotto dalla società americana di ricerca e consulenza tecnologica Gartner. Il sondaggio è stato condotto con i responsabili della sicurezza e del contenimento e gestione dei rischi di 249 aziende diverse.

intelligenza artificiale ai
Adobe Stock

I risultati del sondaggio sono stati discussi in un post sul blog pubblicato martedì da Gartner, in cui si afferma che i consulenti dell’azienda hanno evidenziato tre questioni urgenti che devono essere risolte per ridurre il rischio posto dai modelli linguistici di grandi dimensioni (Large Language Model, LLM) come ChatGPT di OpenAI.

L’attuale incertezza sul modo in cui ChatGPT utilizza il suo set di dati per creare i suoi risultati mette a rischio due delle questioni, ovvero i diritti di proprietà intellettuale e la privacy dei dati.

Se, ad esempio, la proprietà intellettuale (IP) o i dati sensibili di un’azienda vengono inseriti come prompt in ChatGPT, mentre la cronologia delle chat non viene bloccata, è possibile che questi prompt vengano emessi come risposte senza fonte a individui e organizzazioni che non fanno parte dell’azienda.

La terza area di preoccupazione è lo stato della sicurezza informatica.Recentemente, i criminali informatici sono stati in grado di ingannare ChatGPT per creare codice malware e ransomware, il che ha portato a quella che Garnet definisce “industrializzazione degli attacchi di phishing avanzati”.

Se desideri una guida completa sul Margin Trading e l’importanza della comprensione profonda di leva finanziare ed esposizione sui mercati, non perdere il nostro approfondimento:
Cos’è il Margin Trading e come funziona nei mercati delle criptovalute

I pericoli delle intelligenze artificiali che alimentano strumenti come ChatGPT di OpenAI

Gartner ha sottolineato in un precedente post sul blog che l’IA generativa può talvolta fornire risposte inventate o imprecise, note anche come “allucinazioni”, che ha il potenziale di minare la fiducia dei consumatori (ad esempio, se questi ultimi non sanno che stanno chattando con un machine learner invece che con un agente di assistenza in carne e ossa) e che può produrre pregiudizi in uscita.

Ad esempio, quando una studentessa asiatica-americana ha usato l’Intelligenza Artificiale (AI) generativa per modificare la sua foto del profilo LinkedIn, ha cambiato il colore del suo viso in bianco.

Il percorso verso l’emanazione di leggi adeguate alla situazione è ancora lungo

Secondo i sostenitori, l’intelligenza artificiale è uno strumento che ridurrà la quantità di lavoro che dobbiamo svolgere, migliorerà i nostri progetti e forse inaugurerà una nuova era nei campi della medicina, dell’istruzione, della forza lavoro, della ricreazione e della creatività, tra le altre aree di impegno umano.

Tuttavia, un numero crescente di professionisti e luminari del settore tecnologico si sta facendo portavoce della necessità di regolamentare a livello mondiale lo sviluppo di potenti sistemi di apprendimento automatico, al fine di prepararsi all’emergere di una cognizione artificiale di livello umano, spesso nota come Intelligenza Generale Artificiale (AGI).

Nel mese di aprile 2023, il creatore di ChatGPT Logan Kilpatrick ha assicurato ai suoi follower su Twitter che il lavoro sul GPT-5 non era ancora iniziato e non lo sarebbe stato “per qualche tempo”.

La dichiarazione è stata fatta non molto tempo dopo che una petizione che chiedeva di congelare la creazione di sistemi più potenti del GPT4 ha raccolto ben oltre mille firme di famosi tecnologi e ricercatori. Tra i firmatari della petizione figurano l’amministratore delegato di Tesla Elon Musk e il cofondatore di Apple Steve Wozniak.

intelligenza artificiale ai
Adobe Stock

Per difenderti adeguatamente dagli attacchi normativi e dai disastri di mercato, se hai esposizioni in criptovalute e DeFi leggi subito il nostro approfondimento per navigare senza paura durante la tempesta:
Sta arrivando l’Apocalisse DeFi e non ho niente da mettermi

Elon Musk e Steve Wozniak hanno chiesto che OpenAI smetta di aggiornare ChatGPT

Una nota coalizione di tecnologi, ricercatori e altre figure influenti ha chiesto a OpenAI di sospendere temporaneamente l’aggiornamento dello strumento artificiale ChatGPT. Sembra che importanti leader nel campo dell’intelligenza artificiale, come Elon Musk, Steve Wozniak e Andrew Yang, abbiano firmato una lettera aperta in cui si chiede una moratoria di sei mesi sullo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4.

Il GPT-4 è l’ultima versione dello strumento generativo, presentato inizialmente nel novembre 2022. Gli autori della lettera affermano, tra l’altro, che se l’impresa privata non smette di sviluppare questo strumento, non abbiamo neanche la minima idea dei rischi che la società o il genere umano nel suo insieme stanno correndo.

Il mese successivo, i leader di Microsoft, Google e OpenAI, l’azienda che ha sviluppato ChatGPT, hanno lanciato un severo avvertimento ai governi sulla loro incapacità di prepararsi completamente a tecnologie sofisticate.

La legge sull’intelligenza artificiale (AI) è un atto legislativo completo che intende definire lo standard che sarà poi auspicabilmente adottato in tutto il globo. A giugno, il Parlamento europeo, l’organo legislativo che sovrintende all’Unione europea, ha votato a favore dell’approvazione di un progetto di legge sull’intelligenza artificiale a stragrande maggioranza. Il testo assegna alle minacce poste dall’intelligenza artificiale i livelli “inaccettabile”, “elevato” e “limitato”.

Nel frattempo, OpenAI, la società che ha sviluppato Chat GPT, ha esercitato pressioni sui legislatori europei per impedire la classificazione dei suoi sistemi come “ad alto rischio”.

Tale classificazione sottoporrebbe i sistemi a severi requisiti legali e, secondo OpenAI, significherebbe che l’azienda avrebbe un tempo di risposta significativamente ritardato nel caso in cui emergessero improvvisamente usi ad alto rischio. Questo perché ci sarebbero ulteriori livelli burocratici da attraversare.

Impostazioni privacy