La crescita dell’AI non si ferma ma c’è una crisi di responsabilità

La maggioranza dei manager vorrebbe una leadership più chiara per evitare rischi e sostenere l’innovazione.

intelligenza artificiale

NTT Data pubblica un report che regista l’inarrestabile crescita dell’AI ma evidenzia in questo settore anche una crisi di responsabilità. Infatti si regista una tendenza generale delle aziende verso l’adozione dell’AI, ma un vuoto di governance minaccia di rallentare il progresso di questa tecnologia. Oltre l’80% dei manager che hanno partecipato al sondaggio riconosce che la leadership, la governance e la preparazione degli addetti non riescono a tenere il passo dei progressi dell’AI. Mettendo a rischio investimenti, sicurezza e fiducia del pubblico.

The AI Responsibility Gap: Why Leadership is the Missing Link

The AI Responsibility Gap: Why Leadership is the Missing Link si basa sulla visione condivisa da oltre 2.300 dirigenti e decisori aziendali in 34 Paesi. Evidenziando l’urgente necessità di un chiaro mandato per allineare l’innovazione che l’intelligenza artificiale promette con la responsabilità etica.

La crescita dell’AI: vantaggi e rischi

Abhijit Dubey, CEO di NTT Data
L’entusiasmo per l’Intelligenza Artificiale è innegabile. Però i risultati della nostra survey dimostrano che l’innovazione senza responsabilità è un moltiplicatore di rischi. Le organizzazioni hanno bisogno di strategie di governance dell’intelligenza artificiale guidate dal top management per colmare questo divario. Questo prima che il progresso si arresti e la fiducia si eroda.

Indicazioni principali: il vuoto di responsabilità legato all’AI si sta estendendo

  • Il tema innovazione vs. responsabilità crea divisioni nei consigli di amministrazione – La C-Suite è divisa sul tema: un terzo dei manager ritiene che la responsabilità sia più importante dell’innovazione, mentre un altro terzo dà priorità all’innovazione rispetto alla sicurezza; il restante terzo li valuta equamente.
  • L’incertezza nei regolamenti blocca la crescita – Oltre l’80% dei leader aziendali afferma che la scarsa chiarezza delle normative governative ostacola gli investimenti e l’implementazione dell’AI, ritardandone l’adozione.
  • Sicurezza ed etica non stanno al passo delle ambizioni dell’AI – L’89% dei manager C-level è preoccupato per i rischi che l’intelligenza artificiale pone alla sicurezza. Ma solo il 24% dei CISO ritiene che le proprie organizzazioni dispongano di un solido quadro per bilanciare i rischi e la creazione di valore.
  • La forza lavoro non è pronta – Il 67% dei manager afferma che i propri dipendenti non hanno le competenze per utilizzare efficacemente l’intelligenza artificiale. Mentre il 72% ammette di non avere una politica sull’utilizzo responsabile dell’AI.
  • Emergono preoccupazioni sulla sostenibilità – Il 75% del campione afferma che le ambizioni dell’AI sono in conflitto con gli obiettivi di sostenibilità aziendale. Costringendo le organizzazioni a riconsiderare le soluzioni di AI più energivore.

Mandato dei leader aziendali: chiudere il vuoto di responsabilità associato alla crescita dell’AI

Senza un’azione decisa, le organizzazioni rischiano un futuro in cui i progressi dell’AI saranno più rapidi della governance necessaria per garantirne un’adozione etica, sicura ed efficace. I leader devono affrontare:

  • Principi di responsabilità intrinseca – L’intelligenza artificiale, inclusa la GenAI, deve essere sviluppata in modo responsabile fin dalla fase progettuale e lungo l’intero arco del suo sviluppo. Integrando sicurezza, compliance e trasparenza nello sviluppo fin dalla prima riga di codice.
  • La necessità di una governance – I leader devono guardare oltre i requisiti legali. Inoltre soddisfare gli standard etici e sociali dell’intelligenza artificiale utilizzando un approccio sistematico.
  • Preparazione della forza lavoro – Le aziende devono formare i dipendenti affinché possano lavorare a stretto contatto con l’AI e garantire che i team ne comprendano i rischi e le opportunità.
  • Collaborazione globale sulle regole dell’AI – Le aziende, gli enti normativi e i leader del settore devono collaborare per creare quadri di governance dell’AI più chiari e attuabili, stabilendo standard globali.

La crescita dell’AI non si ferma la responsabilità è in crisi

Abhijit Dubey, CEO di NTT Data
La traiettoria dell’AI è chiara: il suo impatto non potrà che sempre più grande. Ma senza una leadership decisa, rischiamo un futuro in cui l’innovazione supera la responsabilità, creando lacune nella sicurezza, vuoti etici e opportunità mancate. La comunità imprenditoriale deve agire ora. Incorporando la responsabilità nei principi fondanti dell’AI attraverso la progettazione, la governance, la preparazione della forza lavoro e la definizione di linee guida etiche. Sblocchiamo il pieno potenziale dell’AI, assicurandoci al contempo che serva equamente le aziende, i dipendenti e la società in generale.