Skip to main content

São Paulo/SP –06 de fevereiro de 2024 – O Desafio da IA Responsável no Mundo Corporativo

*Umberto Rosti

A Inteligência Artificial (IA) é uma das maiores inovações tecnológicas do nosso tempo, oferecendo um vasto potencial para melhorar processos, tomar decisões mais informadas e impulsionar a eficiência em uma variedade de setores. No entanto, com o crescente uso de ferramentas de IA de terceiros, as organizações enfrentam desafios significativos em relação à responsabilidade e à ética. Um estudo recente realizado pelo MIT Sloan Management Review e pelo Boston Consulting Group revelou que mais da metade de todas as falhas de IA corporativa têm origem nessas ferramentas de terceiros.

Os autores do estudo definem ferramentas de terceiros como aquelas às quais as empresas têm acesso por meio de interações com parceiros ou que adquirem por meio de licenciamento. Surpreendentemente, 78% das organizações pesquisadas estão utilizando ferramentas de IA de terceiros, e mais da metade delas depende exclusivamente dessas ferramentas para suas operações. Esse cenário tem exposto essas empresas a novos riscos comerciais, legais e de reputação que muitas vezes são difíceis de rastrear e mitigar.

Riyanka Roy Choudhury, do Stanford Law CodeX, observa que os frameworks de IA Responsável não foram originalmente concebidos para lidar com o aumento repentino e inesperado de riscos associados ao uso de ferramentas de terceiros. Portanto, é crucial que as organizações adotem uma abordagem proativa para avaliar e mitigar esses riscos.

A avaliação proativa de soluções externas torna-se necessária para antecipar e se adequar às falhas, não apenas abordá-las retrospetivamente. Os programas de IA Responsável devem abranger não só as ferramentas de IA construídas internamente, mas também aquelas de terceiros. Os mesmos princípios éticos devem ser aplicados, independentemente da origem do sistema de IA.

Abordagens para Avaliação de Ferramentas de IA de Terceiros

Embora não exista uma solução mágica para mitigar os riscos associados às ferramentas de IA de terceiros, a adoção de várias abordagens e métodos de avaliação pode ser altamente eficaz. Alguns desses métodos incluem:

  1. Avaliação específica das práticas de IA Responsável dos fornecedores das ferramentas.
  2. Inclusão de cláusulas contratuais que exigem a adesão aos princípios de IA Responsável da empresa contratante.
  3. Realização de pré-certificações e auditorias do fornecedor, quando disponíveis.
  4. Revisões internas ao nível do produto, especialmente quando uma ferramenta de terceiros é integrada a um produto ou serviço.
  5. Garantia de adesão aos requisitos regulamentares relevantes ou a padrões do setor.

De acordo com os pesquisadores, organizações que utilizam sete métodos diferentes para avaliar ferramentas de terceiros têm o dobro de chances de descobrir falhas em comparação com aquelas que usam apenas três métodos.

A Importância de Investir em IA Responsável

Este não é o momento de reduzir recursos ou equipes dedicadas à IA Ética ou Responsável, nem de manter os esforços da IA Responsável no mesmo nível do ano passado. Pelo contrário, é o momento de dobrar os investimentos e intensificar os esforços para a implementação de programas de IA Responsável.

É crucial que as organizações reconheçam que falhas podem ocorrer e estejam preparadas para admiti-las, revelá-las quando acontecerem, explicar como ocorreram e, mais importante, aprender com elas. A chave para o sucesso em projetos de IA é definir claramente as expectativas e antecipar possíveis pontos de falha. Estabelecer critérios de sucesso e falha é como criar uma rede de segurança para o projeto, orientando a equipe sobre o que evitar e como agir rapidamente quando as coisas não saem como planejado.

Em resumo, a IA Responsável é uma preocupação fundamental para as empresas que adotam a IA em suas operações. O uso de ferramentas de terceiros exige uma avaliação cuidadosa e a implementação de medidas proativas para mitigar riscos. O investimento contínuo em programas de IA Responsável é essencial para garantir que as organizações naveguem com sucesso no complexo cenário da IA corporativa, protegendo sua reputação, cumprindo regulamentações e promovendo a ética nos negócios.

Neste ambiente em constante evolução, a responsabilidade pela ética da IA recai sobre os C-levels das organizações, e a abordagem proativa é a chave para evitar falhas significativas. Aprender com as falhas é uma parte essencial do processo, e definir critérios claros de sucesso e falha é uma estratégia sábia para manter os projetos de IA no caminho certo. Afinal, o futuro da IA Responsável depende da capacidade das organizações de enfrentar esses desafios com humildade, determinação e ética.

*Umberto é CEO da Safeway

Como podemos ajudar?

A SAFEWAY é uma empresa de consultoria em Segurança da Informação reconhecida pelos seus clientes por oferecer soluções de alto valor agregado por meio de projetos que atendam integralmente às necessidades do negócio. Em 14 anos de experiência, acumulamos diversos projetos de sucesso que nos renderam credibilidade e destaque em nossos clientes, os quais constituem em grande parte as 100 maiores empresas do Brasil.

Hoje por meio de 25 parcerias estratégicas com fabricantes globais e de nosso SOC, a SAFEWAY é considerada uma one stop shopping com as melhores soluções de tecnologia, processos e pessoas. Possuímos tanto a habilidade técnica quanto a experiência necessária para auxiliar sua empresa no processo de estruturação de controles e preparação do ambiente para implantação de SGSI, SGS ou SGCN e, consequentemente, certificação de operações, serviços ou empresas as normas ISO27001, ISO20000 ou ISO22301.