Skip to content

ibm palantir ai

Anche Ibm, Nvidia e Palantir si alleano con la Casa Bianca sull’Intelligenza artificiale

Ibm, Adobe, Salesforce, Nvidia, Palantir, Stability AI, Cohere e Scale AI  si sono impegnate in un accordo con la Casa Bianca per ridurre al minimo i rischi dell’IA. Seguono gli impegni assunti a luglio da OpenAI, Microsoft, Meta e altre società. Tutti i dettagli sugli impegni volontaristici e sulla strategia dell'amministrazione Biden

 

Ibm, Adobe, SalesForce, Nvidia, Palantir, Stability AI, Cohere e Scale AI hanno annunciato impegni volontari in materia di sicurezza, protezione e trasparenza nei confronti della Casa Bianca in relazione al loro utilizzo dell’intelligenza artificiale.

In base all’accordo del 12 settembre, le aziende sottoporranno i nuovi sistemi di intelligenza artificiale a test interni ed esterni prima del loro rilascio. Chiederanno a strutture indipendenti di esaminare i loro sistemi per individuare eventuali falle nella sicurezza, tendenze discriminatorie o rischi per i diritti, le informazioni sanitarie o la sicurezza degli americani.

Gli impegni sono simili a quelli assunti a luglio da OpenAI, Microsoft, Meta e altre società e mostrano un crescente slancio del settore verso gli standard volontari, evidenzia Axios.

L’approccio promosso da Biden dimostra che la Casa Bianca cerca di espandere i propri sforzi per modellare la nuova tecnologia senza attendere il Congresso, osserva Bloomberg.

Tutti i dettagli.

COSA FARANNO IBM, ADOBE, SALESFORCE, PALANTIR E LE ALTRE 4 AZIENDE TECH SULL’IA

Le aziende, tra cui Adobe e Nvidia, si sono impegnate a condividere le informazioni per migliorare la riduzione dei rischi con i governi, la società civile e il mondo accademico e a segnalare le vulnerabilità non appena emergono.

Sebbene non siano giuridicamente vincolanti, le nuove società si uniscono alle colleghe Meta, OpenAi e Microsoft concordando, tra le altre cose, di garantire test interni ed esterni prima del rilascio del prodotto, di etichettare i contenuti generati dall’intelligenza artificiale utilizzando filigrana o altre tecnologie e di condividere informazioni tra loro e il governo federale sui possibili rischi.

LA STRATEGIA DI BIDEN

Come spiega Axios, gli impegni volontari fanno parte di una strategia dell’amministrazione Biden che comprende anche un ordine esecutivo, attualmente in fase di stesura, e una serie di sforzi legislativi.

“Il Presidente è stato chiaro: sfruttare i vantaggi dell’intelligenza artificiale, gestire i rischi e muoversi velocemente, molto velocemente”, ha dichiarato il capo dello staff della Casa Bianca Jeff Zients in una nota. “E stiamo facendo proprio questo, collaborando con il settore privato e utilizzando ogni leva a nostra disposizione per raggiungere questo obiettivo.”

Secondo un’altra fonte al corrente del dossier, rileva Bloomberg , l’amministrazione Biden sta inoltre pianificando di condividere gli impegni volontari con altri paesi nelle prossime discussioni sull’intelligenza artificiale all’Assemblea generale delle Nazioni Unite e nel vertice sull’intelligenza artificiale del Regno Unito a novembre.

L’obiettivo è quello di convincere un numero sufficiente di paesi a incoraggiare anche le loro aziende ad adottare gli standard, consentendo agli Stati Uniti di stabilire l’impostazione predefinita globale per la regolamentazione dell’intelligenza artificiale senza aspettare che il Congresso approvi la legislazione.

Torna su