Skip to main content

São Paulo/SP –06 de fevereiro de 2024 – O Desafio da IA Responsável no Mundo Corporativo

* Umberto Rosti

A Inteligência Artificial (IA) é uma das maiores inovações tecnológicas do nosso tempo, oferecendo um vasto potencial para melhorar processos, tomar decisões mais informadas e impulsionar a eficiência em uma variedade de setores. No entanto, com o crescente uso de ferramentas de IA de terceiros, as organizações enfrentam desafios significativos em relação à responsabilidade e à ética. Um estudo recente realizado pelo MIT Sloan Management Review e pelo Boston Consulting Group revelou que mais da metade de todas as falhas de IA corporativa têm origem nessas ferramentas de terceiros.

Os autores do estudo definem ferramentas de terceiros como aquelas às quais as empresas têm acesso por meio de interações com parceiros ou que adquirem por meio de licenciamento. Surpreendentemente, 78% das organizações pesquisadas estão utilizando ferramentas de IA de terceiros, e mais da metade delas depende exclusivamente dessas ferramentas para suas operações. Esse cenário tem exposto essas empresas a novos riscos comerciais, legais e de reputação que muitas vezes são difíceis de rastrear e mitigar.

Riyanka Roy Choudhury, do Stanford Law CodeX, observa que os frameworks de IA Responsável não foram originalmente concebidos para lidar com o aumento repentino e inesperado de riscos associados ao uso de ferramentas de terceiros. Portanto, é crucial que as organizações adotem uma abordagem proativa para avaliar e mitigar esses riscos.

THE avaliação proativa de soluções externas torna-se necessária para antecipar e se adequar às falhas, não apenas abordá-las retrospetivamente. Os programas de IA Responsável devem abranger não só as ferramentas de IA construídas internamente, mas também aquelas de terceiros. Os mesmos princípios éticos devem ser aplicados, independentemente da origem do sistema de IA.

Abordagens para Avaliação de Ferramentas de IA de Terceiros

Embora não exista uma solução mágica para mitigar os riscos associados às ferramentas de IA de terceiros, a adoção de várias abordagens e métodos de avaliação pode ser altamente eficaz. Alguns desses métodos incluem:

  1. Avaliação específica das práticas de IA Responsável dos fornecedores das ferramentas.
  2. Inclusão de cláusulas contratuais que exigem a adesão aos princípios de IA Responsável da empresa contratante.
  3. Realização de pré-certificações e auditorias do fornecedor, quando disponíveis.
  4. Revisões internas ao nível do produto, especialmente quando uma ferramenta de terceiros é integrada a um produto ou serviço.
  5. Garantia de adesão aos requisitos regulamentares relevantes ou a padrões do setor.

De acordo com os pesquisadores, organizações que utilizam sete métodos diferentes para avaliar ferramentas de terceiros têm o dobro de chances de descobrir falhas em comparação com aquelas que usam apenas três métodos.

A Importância de Investir em IA Responsável

Este não é o momento de reduzir recursos ou equipes dedicadas à IA Ética ou Responsável, nem de manter os esforços da IA Responsável no mesmo nível do ano passado. Pelo contrário, é o momento de dobrar os investimentos e intensificar os esforços para a implementação de programas de IA Responsável.

É crucial que as organizações reconheçam que falhas podem ocorrer e estejam preparadas para admiti-las, revelá-las quando acontecerem, explicar como ocorreram e, mais importante, aprender com elas. A chave para o sucesso em projetos de IA é definir claramente as expectativas e antecipar possíveis pontos de falha. Estabelecer critérios de sucesso e falha é como criar uma rede de segurança para o projeto, orientando a equipe sobre o que evitar e como agir rapidamente quando as coisas não saem como planejado.

Em resumo, a IA Responsável é uma preocupação fundamental para as empresas que adotam a IA em suas operações. O uso de ferramentas de terceiros exige uma avaliação cuidadosa e a implementação de medidas proativas para mitigar riscos. O investimento contínuo em programas de IA Responsável é essencial para garantir que as organizações naveguem com sucesso no complexo cenário da IA corporativa, protegendo sua reputação, cumprindo regulamentações e promovendo a ética nos negócios.

Neste ambiente em constante evolução, a responsabilidade pela ética da IA recai sobre os C-levels das organizações, e a abordagem proativa é a chave para evitar falhas significativas. Aprender com as falhas é uma parte essencial do processo, e definir critérios claros de sucesso e falha é uma estratégia sábia para manter os projetos de IA no caminho certo. Afinal, o futuro da IA Responsável depende da capacidade das organizações de enfrentar esses desafios com humildade, determinação e ética.

*Umberto é CEO da Safeway

How can we help?

SAFEWAY is a consulting firm in Information security recognized by its customers for offering high value-added solutions through projects that fully meet the needs of the business. In 14 years of experience, we have accumulated several successful projects that have earned us credibility and prominence with our clients, who largely make up the 100 largest companies in Brazil.

today through 25 strategic partnerships with global manufacturers and our SOC, SAFEWAY is considered a one stop shopping with the best solutions in technology, processes and people. We have both the technical skills and the experience necessary to assist your company in the process of structuring controls and preparing the environment for the implementation of an ISMS, SGS or SGCN and, consequently, certification of operations, services or companies to the ISO27001, ISO20000 or ISO22301 standards.