canada ethics

Governo do Canadá lança um código de conduta voluntário para o desenvolvimento e gestão responsáveis de sistemas de IA generativa avançada

Em várias partes do mundo, ao mesmo tempo que cresce o entusiasmo pelos avanços na Inteligência Artificial (IA), surgem também inquietações e preocupações relativas aos impactes que estes sistemas podem ter nas pessoas e na sociedade.

Enquanto se vão preparando documentos regulatórios, como é o caso do EU AI-Act no espaço europeu, torna-se evidente que a aprovação e a aplicação prática desses documentos serão processos morosos. É também notório que nenhuma das regulações que estão a ser discutidas será suficiente para mitigar os riscos reais que este tipo de sistemas colocam, sobretudo os que são baseados em modelos generativos. Será sempre necessário o envolvimento da sociedade e um compromisso ético real dos intervenientes na programação e utilização dos sistemas de IA.

O governo do Canadá lançou uma proposta inédita, pelo facto de se tratar de uma iniciativa governamental, de compromisso ético, através de um código de conduta voluntário.

O objetivo da iniciativa e o conteúdo do referido código inserem-se na mesma linha do programa Ai.ethics.

Esta constatação é para nós um motivo de satisfação e também um estímulo para continuarmos o nosso trabalho, envolvendo cada vez mais entidades portuguesas nesta aposta na ética como factor decisivo na concepção e utilização de sistemas de IA.

Código de Conduta Voluntário sobre o Desenvolvimento e Gestão Responsável de Sistemas Avançados de IA Generativa no Canadá

Conheça mais sobre este assunto:

Código de Conduta Voluntário sobre o Desenvolvimento e Gestão Responsável de Sistemas Avançados de IA Generativa

Embora esses sistemas ofereçam inúmeras vantagens, é inegável que também carregam consigo um amplo perfil de riscos. Isso se deve, em parte, à vasta quantidade de dados nos quais são treinados, à diversidade de usos possíveis e à escala de sua implementação. Sistemas disponibilizados publicamente para múltiplos fins podem representar riscos à segurança e até mesmo à disseminação de preconceitos, podendo acarretar impactos sociais significativos, especialmente quando utilizados de maneira mal-intencionada.

Um exemplo prático desses riscos é a capacidade de criar imagens e vídeos tão realistas que podem ser usados para enganar instituições importantes, incluindo sistemas democráticos e de justiça criminal. Além disso, a privacidade individual também pode ser comprometida quando esses sistemas são empregados de forma inadequada, como destacado no relatório das Autoridades de Proteção de Dados e Privacidade do G7.

No entanto, é importante ressaltar que sistemas generativos também podem ser adaptados para usos específicos por organizações, como aplicativos de gestão de conhecimento corporativo ou ferramentas de atendimento ao cliente. Embora essas aplicações possam apresentar riscos mais restritos, ainda assim é crucial adotar medidas para identificar e mitigar esses riscos de forma adequada.

Para enfrentar e minimizar esses desafios, o compromisso voluntário se comprometem a adotar as medidas identificadas. Este código estabelece medidas a serem implementadas tanto antes da regulamentação obrigatória, nos termos da Lei de Inteligência Artificial e Dados, quanto por empresas que desenvolvem ou gerenciam sistemas amplamente disponibilizados para uso público, que estão sujeitos a uma ampla gama de efeitos potencialmente prejudiciais ou uso inadequado.

As empresas que desenvolvem e gerem esses sistemas desempenham papéis importantes e complementares. Precisam compartilhar informações relevantes para garantir que os impactos adversos possam ser abordados pela empresa apropriada. É fundamental destacar que esse código não altera as obrigações legais existentes que as empresas podem ter.

Ao assumir esse compromisso voluntário, gestores de sistemas generativos avançados se comprometem a trabalhar para alcançar os seguintes objetivos:

Responsabilidade

  • As empresas compreendem seu papel em relação aos sistemas que desenvolvem ou gerenciam, implementando sistemas apropriados de gerenciamento de riscos e compartilhando informações com outras empresas quando necessário para evitar lacunas.

Segurança

  • Os sistemas são submetidos a avaliações de risco abrangentes, e medidas de mitigação necessárias são implementadas antes da implantação.

Justiça e Equidade

  • Os impactos potenciais relacionados à justiça e equidade são avaliados e tratados em diferentes fases de desenvolvimento e implantação dos sistemas.

Transparência

  • Informações suficientes são publicadas para permitir que os consumidores tomem decisões informadas e para que especialistas avaliem se os riscos foram adequadamente abordados.

Supervisão Humana e Monitoramento

  • O uso dos sistemas é monitorado após a implantação, e atualizações são implementadas conforme necessário para lidar com quaisquer riscos que possam surgir.

Validade e Robustez

  • Os sistemas operam conforme o previsto, são seguros contra ataques cibernéticos e seu comportamento em resposta a tarefas ou situações diversas é compreendido.

Além disso, os membros se comprometem a apoiar o desenvolvimento contínuo de um ecossistema de IA responsável e sólido. Isso inclui a contribuição para o desenvolvimento e aplicação de padrões, a partilha de informações e melhores práticas com outros membros do ecossistema de IA, a colaboração com pesquisadores que trabalham para promover a IA responsável e a cooperação com outros, incluindo governos, para promover a conscientização pública e a educação sobre IA. Os membros também se comprometem a desenvolver e implantar sistemas de IA de maneira a impulsionar o crescimento inclusivo e sustentável no Canadá, priorizando os direitos humanos, a acessibilidade e a sustentabilidade ambiental.

Este compromisso voluntário representa um marco significativo no desenvolvimento e na gestão responsável de sistemas de IA generativa avançados e reflete o comprometimento de todas as partes envolvidas em garantir que essas tecnologias sejam usadas para o bem-estar da sociedade como um todo, tal como concretizamos no nosso programa Ai. ethics.