Segurança e conformidade da IA: um guia para CTOs

DEZ 20, 2023
Fergus Hurley Co-Founder & GM Checks
Pedro Rodriguez Head of Engineering Checks

Os rápidos avanços na inteligência artificial generativa (GenAI) trouxeram oportunidades transformadoras em muitos setores. No entanto, esses avanços geraram preocupações quanto aos riscos, como privacidade, uso indevido, viés e injustiça. Portanto, o desenvolvimento e a implantação responsáveis são itens elementos imprescindíveis.

Os aplicativos de IA estão se tornando cada vez mais sofisticados, e os desenvolvedores estão integrando-os a sistemas essenciais. Portanto, o ônus recai sobre os líderes de tecnologia, particularmente, CTOs e líderes de engenharia e IA, que são responsáveis por liderar a adoção da IA em produtos e pilhas, para garantir o uso da IA com segurança, ética e em conformidade com as políticas, os regulamentos e as leis relevantes.

Enquanto as regulamentações abrangentes de segurança de IA estão em fase inicial, os CTOs não podem esperar por decretos regulamentares para começarem a agir. É preciso adotar uma abordagem inovadora quanto à governança de IA, incorporando considerações de segurança e conformidade em todo o ciclo de desenvolvimento do produto.

Esta matéria é a primeira de uma série que tem como objetivo explorar esses desafios. Para começar, são apresentadas quatro propostas principais para integrar práticas de segurança e conformidade de IA ao ciclo de vida de desenvolvimento do produto:

1. Estabelecer um framework robusto de governança de IA

Crie um framework abrangente de governança de IA que defina claramente os princípios, as políticas e os procedimentos da organização para desenvolver, implantar e operar sistemas de IA. Esse framework deve estabelecer, com clareza, papéis, responsabilidades, mecanismos de responsabilidade e protocolos de avaliação de riscos.

Exemplos de frameworks emergentes incluem o framework de gerenciamento de riscos de IA do National Institute of Standards and Technologies dos EUA, o plano do OSTP para uma declaração de direitos de IA, a lei de IA da UE, bem como o framework de IA segura (SAIF, na sigla em inglês) do Google.

Quando a organização adotar um framework de governança de IA, será crucial considerar as implicações de depender de modelos de base de terceiros. Essas considerações incluem os dados do app que o modelo de base usa e suas obrigações de acordo com os termos de serviço do provedor do modelo de base.

2. Incorporar princípios de segurança da IA à fase de projeto

Incorpore princípios de segurança de IA, como os princípios de IA responsável do Google, ao processo de projeto desde o início.

Os princípios de segurança de IA envolvem a identificação e mitigação de possíveis riscos e desafios no início do ciclo de desenvolvimento. Por exemplo, mitigar o viés no treinamento ou em inferências do modelo e garantir a explicabilidade do comportamento dos modelos. Use técnicas como treinamento adversário (testes de equipe vermelha de LLMs usando prompts que procuram por resultados inseguros) para garantir que os modelos de IA operem de maneira justa, imparcial e robusta.

3. Implementar auditoria e monitoramento contínuos

Acompanhe o desempenho e o comportamento dos sistemas de IA em tempo real com auditoria e monitoramento contínuos. A meta é identificar e resolver possíveis problemas ou anomalias de segurança antes que se transformem em problemas maiores.

Procure por métricas importantes, como acurácia, justiça e explicabilidade do modelo, e estabeleça uma linha de base para o app e seu monitoramento. Além das métricas tradicionais, procure por mudanças inesperadas no comportamento do usuário e no deslocamento do modelo de IA usando uma ferramenta como o Vertex AI Model Monitoring. Faça isso usando a geração de registros de dados, a detecção de anomalias e mecanismos human-in-the-loop para garantir a supervisão contínua.

4. Incentivar uma cultura de transparência e explicabilidade

Impulsione a tomada de decisões de IA por meio de uma cultura de transparência e explicabilidade. Incentive essa cultura definindo diretrizes de documentação, métricas e papéis claros para que todos os participantes da equipe que desenvolvem sistemas de IA participem do projeto, do treinamento, da implantação e das operações.

Além disso, forneça explicações claras e acessíveis às partes interessadas multifuncionais sobre como os sistemas de IA operam, suas limitações e a lógica disponível por trás das decisões. Essas informações promovem a confiança entre usuários, reguladores e partes interessadas.

Conclusão

À medida que o papel da IA nos sistemas essenciais e críticos aumenta, a governança adequada é primordial para seu sucesso e o dos sistemas e das organizações que usam a IA. As quatro propostas nessa matéria devem ser um bom começo nessa direção.

No entanto, esse é um domínio amplo e complexo, e essa série de matérias trata exatamente disso. Portanto, busque informações mais aprofundadas sobre as ferramentas, as técnicas e os processos necessários para integrar a IA com segurança a seu desenvolvimento e aos apps que você cria.