Estudo: A confiança na IA generativa aumenta globalmente, apesar das falhas nas salvaguardas da IA

As organizações que criam IA confiável têm 60% mais chances de dobrar o ROI em projetos de IA, destacando o alto custo de ignorar práticas responsáveis

O SAS, líder global em dados e IA, acaba de anunciar um novo estudo que explora o uso, o impacto e a confiabilidade da IA. O Relatório IDC Data and AI Impact Report: The Trust Imperative, levado a cabo pelo SAS, constatou que líderes de TI e de negócios relatam ter maior confiança na IA generativa do que em qualquer outra forma de IA.

O estudo global que explora o uso e a adoção da IA ​​também constatou que apenas 40% estão a investir para tornar os sistemas de IA confiáveis através de governança, explicabilidade e salvaguardas éticas, embora as organizações que priorizam a IA confiável tenham 60% mais chances de dobrar o ROI de projetos de IA. Paradoxalmente, entre aquelas que relataram o menor investimento em sistemas de IA confiáveis, a GenAI (por exemplo, ChatGPT) foi considerada 200% mais confiável do que a IA tradicional (por exemplo, machine learning), apesar de esta última ser a forma de IA mais consolidada, confiável e explicável.

“A nossa pesquisa mostra uma contradição: formas de IA com interatividade semelhante à humana e familiaridade social parecem estimular a maior confiança, independentemente da confiabilidade ou precisão reais”, disse Kathy Lange, Diretora de Pesquisa da Prática de IA e Automação do IDC. “Como fornecedores, profissionais e utilizadores individuais de IA, devemos questionar: a IA generativa é confiável, mas será sempre confiável? E estarão os líderes a seguir as proteções e práticas de governança de IA necessárias a esta tecnologia emergente?”

Saiba mais no LinkedIn Live panel moderado hoje por Nicholas Thompson, CEO da The Atlantic, com a participação do SAS, da Deloitte e de um palestrante convidado da IDC.

Acede ao relatório completo da pesquisa aqui: http://sas.com/ai-impact.

A pesquisa baseia-se numa pesquisa global com 2.375 entrevistados, realizada na América do Norte, América Latina, Europa, Médio Oriente e África e Ásia-Pacífico. Os participantes incluem uma mistura equilibrada de profissionais de TI e líderes de linha de negócios, oferecendo perspetivas tanto de tecnologia quanto de funções de negócios.

Tecnologias emergentes de IA evocam mais confiança

No geral, o estudo constatou que as implementações de IA mais confiáveis ​​foram as de tecnologias emergentes, como IA generativa e IA agêntica, em comparação com formas mais estabelecidas de IA. Quase metade dos entrevistados (48%) relatou "confiança total" na IA generativa, enquanto um terço disse o mesmo para a IA agêntica (33%). A forma de IA menos confiável é a IA tradicional – menos de um em cada cinco (18%) indicou confiança total.

Mesmo relatando alta confiança na IA generativa e na IA agêntica, os entrevistados expressaram preocupações, incluindo privacidade de dados (62%), transparência e explicabilidade (57%) e uso ético (56%).

Enquanto isso, a IA quântica está a ganhar confiança rapidamente, mesmo que a tecnologia para executar a maioria dos casos de uso ainda não tenha sido totalmente desenvolvida. Quase um terço dos decisores globais afirmam estar familiarizados com a quantum AI e 26% relatam total confiança na tecnologia, apesar das aplicações no mundo real ainda estarem em estágios iniciais.

Atrasos nas diretrizes de segurança da IA ​​atrasadas enfraquecem o impacto da IA... e o ROI

O estudo mostrou um rápido aumento no uso da IA ​​– particularmente a IA generativa, que rapidamente eclipsou a IA tradicional em visibilidade e aplicação (81% vs. 66%), o que gerou um novo nível de riscos e preocupações éticas.

Em todas as regiões, os investigadores da IDC identificaram um desajuste entre o quanto as organizações confiam na IA e o quão confiável a tecnologia realmente é. De acordo com o estudo, enquanto quase 8 em cada 10 (78%) organizações afirmam confiar totalmente na IA, apenas 40% investiram para tornar os sistemas comprovadamente confiáveis através da AI governance, explainability and ethical safeguards.​​

A pesquisa também mostrou baixa prioridade na implementação de medidas confiáveis ​​de IA na operacionalização de projetos de IA. Entre as três principais prioridades organizacionais dos entrevistados, apenas 2% selecionaram o desenvolvimento de uma estrutura de governança de IA e menos de 10% relataram o desenvolvimento de uma política de IA responsável. No entanto, o deferimento de medidas confiáveis ​​de IA pode estar a impedir estas organizações de realizar plenamente os seus investimentos em IA no futuro.

Os investigadores dividiram os entrevistados em líderes confiáveis ​​de IA e seguidores confiáveis ​​de IA. Os líderes investiram mais em práticas, tecnologias e estruturas de governança para tornar os seus sistemas de IA confiáveis ​​– e parecem estar a colher frutos. Estes mesmos líderes confiáveis ​​de IA tiveram 1,6 vez mais probabilidade de relatar o dobro ou mais de ROI nos seus projetos de IA.

A falta de bases de dados sólidas e governança paralisa a IA

À medida que os sistemas de IA se tornam mais autónomos e profundamente integrados aos processos críticos, as bases de dados também se tornam mais importantes. A qualidade, a diversidade e a governança dos dados influenciam diretamente os resultados da IA, tornando estratégias de dados inteligentes essenciais para a obtenção de benefícios (por exemplo, ROI, ganhos de produtividade) e a mitigação de riscos.

O estudo identificou três grandes obstáculos que impedem o sucesso das implementações de IA: infraestrutura de dados fraca, governança inadequada e falta de competências em IA. Quase metade (49%) das organizações cita bases de dados que não são centralizadas ou ambientes de dados em nuvem não otimizados como uma grande barreira. Esta principal preocupação foi seguida pela falta de processos de governança de dados suficientes (44%) e pela escassez de especialistas qualificados nas suas organizações (41%).

Os entrevistados relataram que o principal problema com a gestão dos dados usados ​​em implementações de IA é a dificuldade de acesso a fontes de dados relevantes (58%). Outras preocupações importantes incluíram questões de privacidade e conformidade de dados (49%) e qualidade dos dados (46%).

“Para o bem da sociedade, das empresas e dos colaboradores, a confiança na IA é fundamental”, disse Bryan Harris, Diretor de Tecnologia do SAS. “Para conseguir isto, a indústria de IA deve aumentar a taxa de sucesso das implementações, os humanos devem analisar criticamente os resultados da IA ​​e a liderança deve capacitar a força de trabalho com IA.”

Sobre a Economist Impact

A Economist Impact combina o rigor de um think tank com a criatividade de uma marca de média para engajar um público globalmente influente. Fazemos parcerias com empresas, fundações, ONGs e governos em grandes temas, incluindo sustentabilidade, saúde e as mudanças na globalização, para catalisar mudanças e viabilizar o progresso.

Trazemos um histórico de 75 anos de pesquisa em políticas públicas baseada em evidências em 205 países. A nossa equipa global esclarece escolhas políticas através de benchmarks, análises de impacto económico e social, white papers, previsões e modelagem de cenários.

Estudo: A confiança na IA generativa aumenta globalmente, apesar das falhas nas salvaguardas da IA

About SAS

SAS is a global leader in data and AI. With SAS software and industry-specific solutions, organizations transform data into trusted decisions. SAS gives you THE POWER TO KNOW®.

Mais informações:

Estudo: A confiança na IA generativa aumenta globalmente, apesar das falhas nas salvaguardas da IA
  • Vanessa Leão
    Communication Director
    Mobile: (+351) 961340980
    www.beideas.pt