Como vamos regular os mecanismos de inteligência artificial que cada vez mais pautam nossas vidas?

Uma recomendação de filme no Netflix, uma sugestão de álbum no Spotify e o preço de aluguel no 5º andar: o que essas três coisas têm em comum? Todas são regidas por algoritmos.

Os algoritmos e outros mecanismos ligados à inteligência artificial (IA) estão cada vez mais presentes em nossas vidas, definido nossas escolhas, orientando nossos gostos e realizando um processo de curadoria do que ouvimos, lemos, assistimos, compramos e escutamos. Mas além de recomendar aquela música nova da Beyoncé, os algoritmos já são responsáveis por determinar seu score bancário e, em alguns lugares, até a possibilidade de alguém cometer um crime. E é justamente nesses temas delicados que cabe a pergunta: até onde uma decisão tomada por uma IA é válida ou não? Quais são seus limites éticos?

A tecnologia é uma criação humana. Parece ser uma afirmação óbvia, mas é necessário frisar esse aspecto imanente a qualquer tecnologia. A tecnologia empregada na construção da IA não é neutra: ela é humanamente orientada e, se não observar princípios claros, pode reproduzir padrões de preconceito e discriminação que são essencialmente humanos. Mais do que não ser neutra, a tecnologia também não é imparcial — por isso, é preciso pensar nas implicações éticas e morais que decisões tomadas por IA podem ter na vida das pessoas.

Temos como exemplo o COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), um software utilizado pela justiça do estado de Wisconsin, nos Estados Unidos, de modo a calcular o grau de periculosidade dos criminosos. Outros estados norte-americanos também utilizam softwares semelhantes para ajudar no processo de tomada de decisão em processos judiciais. Nesse caso, o sistema utiliza dados sobre o histórico familiar, escolar e profissional, e cria uma “nota” para os réus.

Raça não é um critério para o algoritmo, portanto, todos os indivíduos são “iguais” e respondem às mesmas perguntas. Mas é justamente aí que começam as distorções: o contexto social e econômico norte-americano faz com que o sistema seja mais criterioso e aponte uma maior possibilidade de indivíduos negros reincidirem do que pessoas brancas, algo que não é observável na realidade (como mostra essa matéria da Pública), mas é explicável pelo contexto social que as pessoas negras vivem nos EUA.

Isto é, nos Estados Unidos, um indivíduo negro tem maior possibilidade de viver numa área pobre e de ter parentes com passagens pelo sistema prisional, mas isso não significa que por esse histórico familiar e condição econômica ele está mais propenso a cometer crimes do que um sujeito branco que não tem esse histórico familiar, porém cometeu delitos mais graves ou tem uma carreira muito mais extensa no mundo do crime. O algoritmo não é intencionalmente racista, mas as decisões tomadas por ele são.

Outro exemplo de como mecanismos de inteligência artificial podem influenciar diretamente na vida de milhares de pessoas é o cálculo de score bancário, um procedimento realizado pelos dois maiores bureaus de crédito atuando no Brasil, a Serasa Experian e o Boa Vista SCPC. O score é uma pontuação que baliza as chances de o consumidor conseguir realizar um empréstimo, financiamento ou até mesmo um carnê em lojas de departamento. É possível consultar no site da Serasa Experian o seu score, mas, mais importante do que isso, o serviço deixa claro quais são os critérios avaliados para a realização do cálculo.

Esse é um principio de transparência que nem sempre é seguido por outras instituições bancárias. Sabemos que existe um rating interno, mas não conhecemos quais são os critérios levados em conta para a realização da análise e quais dados são utilizados para a obtenção desse “score interno”. Dados como grau de escolaridade, raça e endereço podem ser utilizados de maneira indevida e, dessa maneira, gerar distorções e conclusões preconceituosas acerca do consumidor. E, nesses casos, a falta de transparência no processo impede que saibamos como somos avaliados, o que nos deixa à mercê desses sistemas ocultos.

(Critérios utilizados pelo Serasa Experian)

O contexto social deve ser levado em conta quando utilizamos IA para tomar decisões que influenciam diretamente na vida das pessoas. E, acima de tudo, esses processos devem ser transparentes, auditáveis, confiáveis e, se possível, serem validados por uma supervisão humana. No entanto, para que isso ocorra, enfrentamos dois grandes desafios: o primeiro deles é como traduzir um conjunto de códigos para o público geral e o segundo é como prevenir que algoritmos tomem decisões equivocadas, mas caso cometam, como auferir e corrigir essas distorções?

Desse modo, torna-se necessário a discussão e a criação de uma política de governança e boas práticas direcionadas à IA, o que é algo semelhante ao que vem sendo desenvolvido com a recém aprovada Lei Geral de Proteção de Dados (LGPD). Só que, para isso, a sociedade e os atores políticos precisam voltar sua atenção também para possíveis implicações de como esses dados serão utilizados e quais serão as consequências de decisões tomadas por algoritmos e IA.

Um bom exemplo vem da União Europeia, que esse ano lançou um documento com diretrizes para a criação e desenvolvimento de tecnologias de inteligência artificial centrada em humanos. O documento, que não tem caráter legal, é fruto de uma comissão criada especialmente para balizar o desenvolvimento de inteligência artificial no bloco. O lema que norteia as diretrizes é que o desenvolvimento da tecnologia de inteligência artificial deve ser “centrada nos humanos”. Dizer isso significa explicitar o caráter político e social desse conjunto de códigos, uma vez que eles serão aplicados na sociedade e, portanto, precisam respeitar os direitos humanos e não podem cometer discriminações e preconceitos.

Humanizar a tecnologia e tirá-la do campo “neutro” parece ser um bom caminho para o desenvolvimento de IA e algoritmos mais justos. Isso deve ser levado em conta já na construção dessas tecnologias, o que implica também na diversidade das equipes responsáveis, mas isso é assunto para um outro artigo. O relatório em questão sinaliza sete pontos como sendo essenciais para a construção de tecnologias de IA confiáveis e centradas no ser humano:

·Agência e supervisão humana

· Robustez técnica e segurança

· Privacidade e governança de dados

· Transparência

· Diversidade, não-discriminação e justiça

· Bem estar social e ambiental

· Prestação de contas

Essas sete diretrizes são princípios norteadores que visam à construção de mecanismos de IA socialmente responsáveis, éticos e que respeitam a dignidade humana. Não é possível calcular o impacto que as novas tecnologias terão em nossas vidas, mas, de qualquer maneira, precisamos pensar em modelos éticos e responsáveis. Quem sabe, num futuro próximo, não criamos uma espécie de código universal, no estilo das Leis da Robótica criadas por Asimov, direcionado exclusivamente para IA?

compartilhe

leia também

voltar