Insights & Media

Newsletters

2023-12-15
Governação de Algoritmos e Comitê de Ética de IA

Newsletters

por Eduardo Magrani, Consultor Sénior na área de TMT da CCA Law Firm

Atualmente, o tema da Inteligência Artificial (IA) já não é uma novidade, até mesmo para os próprios legisladores que, como se observa, continuam a desenvolver projetos normativos para regular esta nova realidade, tais como o Regulamento da Inteligência Artificial (AI Act ou AIA) e o Regulamento dos Serviços Digitais (DSA).

Segundo o Parlamento Europeu, a inteligência artificial corresponde à “capacidade que uma máquina tem para reproduzir competências semelhantes às humanas como é o caso do raciocínio, a aprendizagem, o planeamento e a criatividade”. Por outras palavras, corresponde a um programa informático desenvolvido com uma ou várias das técnicas e abordagens elencadas no anexo I do AI Act, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage.

Este sistema pode trazer enormes benefícios, tanto para os utilizadores individuais como para empresas. No entanto, e em contrapartida, existem riscos inevitáveis que emergem da utilização de inteligência artificial. Deste risco surge reforçada a importância de garantir a robustez e segurança, a responsabilidade, a transparência e o respeito pelos direitos fundamentais. É por esta necessidade que o AIA (Artificial Intelligence Act), no seu Título III referente aos sistemas de IA de risco elevado, e no Título IV alusivo a determinados sistemas como aqueles “destinados a interagir com pessoas singulares”, inclui obrigações de transparência a ser respeitadas pelas pessoas/entidades reguladas por estas normas.

Ainda que estas regras aplicáveis às empresas controlem, de forma segura, a inteligência artificial antes, durante, e após a sua implementação é necessária uma governança de IA adequada, que se define como as práticas, políticas e estruturas que pretendem promover e garantir o desenvolvimento, bem como a implementação e a utilização da IA de forma ética e responsável.

Desta urgência surgiram diversas propostas de governança, entre elas a “Recomendação da OCDE sobre Inteligência Artificial” de 2019, que promove a implementação de alguns princípios, cumulativamente, pelos Membros e Não-Membros desta organização, tais como a transparência e a explicabilidade, a robustez e a segurança, a responsabilidade e os princípios, mencionados também nos “Princípios para o uso Ético da Inteligência Artificial no Sistema das Nações Unidas” das Nações Unidas em 2022. Em 2021 também a UNESCO surge com a “Recomendação sobre a Ética da lnteligência Artificial” onde recomenda que os Estados-Membros devem, entre outros aspetos “monitorar e avaliar com credibilidade e transparência as políticas, os programas e os mecanismos relacionados com a ética da IA, utilizando uma combinação de abordagens quantitativas e qualitativas”.

Uma publicação particularmente relevante é o capAI, lançado em 2022, e que contém uma lista de verificação abrangente, a ser seguida rigorosamente pelos responsáveis dos sistemas ao longo de todo o processo (design, desenvolvimento, avaliação, operação e reforma/retirada), bem como a sugestão de criação de funções específicas para cada fase do procedimento.

Apesar das diversas alternativas de governança de IA existentes, subsiste também a sugestão de formação de um Comité de Ética - um grupo capaz de prevenir, detetar e mitigar os potenciais riscos emergentes da IA, entre outros. Esta estrutura, referida na recomendação da UNESCO, pode adotar diferentes formas, ter poderes variados e até integrar membros de inúmeras especialidades. Simultaneamente, pode servir de auxílio às outras formas de governança de IA, anteriormente referidas, e vice-versa.

A importância de um Comité de Ética acentua-se no contexto de uma empresa de grande dimensão ou que trabalhe com inteligência artificial de risco elevado, sistemas estes que necessitam de supervisão humana constante durante e após a implementação, encontrando-se regulados pelo AIA.

De acordo com o recente relatório publicado pela Fundação Getúlio Vargas (“Framework para Comitês de Ética em IA”), o Comité pode constituir um órgão interno da empresa subordinado à direção ou um departamento específico da empresa, ou um órgão externo à mesma. Este último pode estar vinculado à organização, a uma rede de organizações com interesses análogos ou até mesmo ao poder público ou ser totalmente independente. Quando se trate de órgãos internos, existirá um maior conhecimento e relacionamento com a empresa, ao passo que no caso dos externos, apesar de um certo afastamento, a imparcialidade aparenta ser mais garantida.

Relativamente à competência e finalidade do Comité, conforme sugerido no mencionado estudo, este pode desempenhar diversos papéis, uns mais ativos do que outros, de forma individual ou conjunta. Numa ótica menos presente, existe o poder meramente elucidativo, que visa dar a conhecer o que se define como boas práticas e quais os princípios mais vantajosos a adotar para o contexto empresarial; existe o poder norteador, que visa propor os comportamentos e princípios éticos a adotar pela organização, auxiliado de um acompanhamento direto na gestão da empresa; e, por último, e numa lógica mais preventiva, o Comité pode ainda assumir a função de evitar e mitigar os riscos éticos da tecnologia, implementada ou por executar, que inclui uma componente de supervisão que visa garantir a não existência de qualquer desvio.

Numa perspetiva mais ativa, fala-se no poder normativo, que tem como missão a elaboração de normas obrigatórias, não supletivas, a serem seguidas por todos os membros da empresa. Por fim, um Comité com poder decisório tem a competência para impedir a continuidade de um projeto e avaliar o comportamento de quem faz parte da empresa.

Os Comités de Ética não são uma novidade, existindo exemplos de empresas relacionadas com órgãos de governança que possuem alguns dos poderes acima mencionados. O Comité de Ética e o conselho de revisão de ética da IA da Adobe, por exemplo, cumula o poder de fazer recomendações com o poder de interromper a execução de alguma tecnologia que não observe os princípios de responsabilidade, accountability e transparência. Já o Comité de Ética do grupo Panasonic tem um papel mais preventivo, intervindo principalmente na avaliação dos riscos de todos os projetos que envolvam IA.

Compreendendo o conceito base de um Comité de Ética e dos seus poderes inerentes, importa também perceber a sua composição. Independentemente de serem membros internos (provenientes da própria empresa), externos ou uma mistura de ambos, o mais importante é a especialidade de cada um e de que modo a sabedoria individual que aportam pode marcar a diferença. Um informático, por exemplo, oferece a sua perspetiva sobre os algoritmos em si e a sua probabilidade de sucesso, enquanto um jurista ou advogado auxilia na área do Compliance. Já um profissional de Ética seria fundamental para detetar possíveis riscos e ajudar a preveni-los, ao passo que um especialista em diferentes contextos sociais conseguiria detetar possíveis impactos sociais.

Com estes especialistas, a balança dos prejuízos e benefícios equilibrar-se-ia, promovendo um processo decisório proporcional e informado. Além disso, seria vantajoso incluir uma pessoa sem uma especialização relacionada com a empresa, para oferecer a perspetiva do potencial destinatário da tecnologia a implementar. Quanto mais multidisciplinar, mais eficaz e abrangente será o Comité.

Relativamente à formação do Comité, não existe uma regra para o número de membros que podem associar-se voluntariamente ou participar num processo de seleção, bem como se os membros devem ou não ser remunerados. Estas questões dependerão da empresa e do Comité em questão.

Não obstante, a importância de um órgão semelhante a este é inquestionável, tal como a possibilidade de cooperação entre as várias formas de governança de IA, já que todas elas visam reforçar os requisitos essenciais de transparência, responsabilidade e segurança.