Stati Uniti, Regno Unito e altri 16 paesi firmano un accordo per rendere l’intelligenza artificiale “sicura fin dalla progettazione”

Stati Uniti, Regno Unito e altri 16 paesi firmano un accordo per rendere l’intelligenza artificiale “sicura fin dalla progettazione”

Gli Stati Uniti, il Regno Unito e altri 16 paesi si sono uniti e hanno firmato un nuovo accordo per rendere l’AI “sicura fin dalla progettazione”. sebbene sia considerata semplicemente una dichiarazione di principi di base, la Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha affermato che si tratta di un passo nella giusta direzione.

L’intelligenza artificiale deve diventare molto più sicura di quanto non sia in realtà e abbiamo bisogno di leggi che disciplinino la creazione di nuovi sistemi basati su di essa

Finora abbiamo visto diversi usi dell’intelligenza artificiale, da compiti di base come calcolare le percentuali tra due numeri ad alcune risposte complicate. Le applicazioni dell’intelligenza artificiale sono numerose e semplicemente non possono essere definite entro un intervallo di numeri a nostra disposizione. Più parametri ha un modello, migliore sarà, e con l’intelligenza artificiale che sta diventando una funzionalità nativa sui telefoni del 2024, è importante.

Questo è quanto si legge nel rapporto

Domenica gli Stati Uniti, la Gran Bretagna e più di una dozzina di altri paesi hanno svelato quello che un alto funzionario americano ha descritto come il primo accordo internazionale dettagliato su come mantenere l’intelligenza artificiale al sicuro da attori disonesti, spingendo le aziende a creare sistemi di intelligenza artificiale che siano “sicuri progetto.”

In un documento di 20 pagine presentato domenica, i 18 paesi hanno concordato che le aziende che progettano e utilizzano l’intelligenza artificiale devono svilupparla e implementarla in modo da proteggere i clienti e il pubblico più ampio da abusi.

Jen Easterly, direttrice della CISA, ha anche parlato di quanto sia importante che i paesi comprendano che lo sviluppo dell’intelligenza artificiale dovrebbe avere un approccio incentrato sulla sicurezza e ha anche incoraggiato altri paesi a unirsi a questo.

“Questa è la prima volta che vediamo l’affermazione che queste capacità non dovrebbero riguardare solo funzionalità interessanti e la rapidità con cui possiamo immetterle sul mercato o come possiamo competere per ridurre i costi”, ha detto Easterly a Reuters, affermando che le linee guida rappresentano “un accordo secondo cui la cosa più importante da fare in fase di progettazione è la sicurezza”.

Hanno firmato l’accordo anche Germania, Italia, Repubblica Ceca, Estonia, Polonia, Australia, Cile, Israele, Nigeria e Singapore. Nel frattempo, per garantire che l’intelligenza artificiale non diventi una minaccia, l’Europa inizierà a lavorare su leggi specifiche che regolano lo sviluppo e il rilascio di nuovi sistemi di intelligenza artificiale. Ciò significa che tutte le aziende che realizzano i propri sistemi nell’UE dovranno essere sicure che non vi siano vulnerabilità che possano consentire agli utenti di abusare dell’IA.

Non si può negare che l’uso dell’intelligenza artificiale non può essere fermato, soprattutto se ci aspettiamo progressi e miglioramenti nella nostra tecnologia e, in una certa misura, nella nostra vita quotidiana. Questo accordo è molto più importante. Allo stesso tempo, è importante capire che creare leggi che governino l’uso dell’intelligenza artificiale non è un compito facile e può richiedere anni prima che si realizzi effettivamente. Allo stesso tempo, è necessario rendersi conto che l’intelligenza artificiale avrà capacità che svilupperà nel suo corso. Ciò significa che la creazione di regolamenti e regole applicabili all’attuale modello di intelligenza artificiale potrebbe non essere sufficiente tra un paio d’anni, quando lo stesso modello avrà imparato di più.

Fonte notizie: Reuters

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *