Num mundo cada vez mais dominado por máquinas e probabilística, a grande arma para manter a rédea curta aos sistemas de inteligência artificial vem da filosofia.
A tarefa de Jen Gennai está longe de ser simples. É ela quem está responsável por supervisionar e garantir que as dezenas de produtos que são desenvolvidos na Google respeitam os princípios éticos da empresa – uma tarefa cada vez mais importante à medida que cada vez mais sistemas tomam decisões sozinhos.
“Isso significa providenciar as ferramentas, a infraestrutura e o conhecimento às equipas da empresa para fazer decisões mais éticas, para lançar tecnologia ética e também para garantir que estão a monitorizar a utilização dos nossos consumidores, que esses consumidores estão a ter uma experiência positiva com os nossos produtos”, diz-nos em entrevista.
A Google não é um exemplo qualquer: além de ser considerada como uma das empresas mais avançadas no segmento da inteligência artificial, é das que mais usa a tecnologia em muitos dos serviços que disponibiliza para os consumidores finais. Como pensa que o Google Photos reconhece a cara dos seus amigos e o Gmail dá-lhe sugestões de resposta a emails?
Como já expõe de sobremaneira a sua inteligência artificial aos utilizadores, volta e meia a Google vê-se a braços com polémicas – como quando o algoritmo de reconhecimento facial da tecnológica decidiu classificar pessoas com a pele de cor negra como gorilas ou mais recentemente quando foi acusada de estar a prejudicar notícias dos conservadores norte-americanos do motor de pesquisa.
“Em primeiro lugar procuramos perceber porque aconteceu e se o problema está a ser gerado pela base de dados, se está a ser gerado pelo modelo e pela forma como está a interagir com os dados ou se é gerado pelas interações dos utilizadores e da sociedade com esse produto”, explica Jen Gennai.
Leia também | Fernando Pereira: O homem na cadeira de sonho da inteligência artificial
De seguida a empresa expande o problema, para perceber se pode afetar outros subgrupos de utilizadores. Segue-se uma série de questões: são precisos novos conjuntos de dados ou melhorar os que já existem? São precisos mais dados de uma maior variedade de utilizadores no produto? As fontes de dados, são representativas de todos os utilizadores? Ou acrescentam-se mais dados para representar os utilizadores?
“Tentamos trabalhar com a equipa para encontrar a causa, perceber como aconteceu, quão prolífico é e a escala que tem no produto. Essa é a resposta imediata assim que algo acontece”.
E como é que se sente a equipa quando os erros acontecem? “Saltamos logo para o modo de resolução de problemas, tentámos não nos sentir mal sobre isso”.
Um banho de ética
Em 2018, a Google criou um conjunto de princípios éticos internos para a área da inteligência artificial justamente para tentar evitar mais problemas embaraçosos causados pelos seus algoritmos. Jen Gennai foi uma das autoras.
“Muitos dos nossos engenheiros, embora saibam e tentem criar os melhores produtos para os nossos utilizadores, eles não estão todos treinados em ética, não estão todos treinados em ciências sociais. Estamos a disponibilizar uma camada social e tecnológica ao entendimento do problema, disponibilizando ferramentas adicionais à nossa equipa, apenas para ajudá-los a continuar a jornada na qual muitos já estão”, sublinha.
A equipa de Jen Gennai dá treinos de ética aos googlers de toda a empresa, assim como treinos de responsabilidade para ajudar os engenheiros a tomarem as decisões que precisam no dia-a-dia. “Esperamos eventualmente poder dizer que 100 mil googlers estão a trabalhar nisto, mas por agora ainda estamos a construir a nossa infraestrutura, os treinos, as ferramentas e somos um grupo mais pequeno”.
A responsável de inovação social admite que se um projeto não cumprir os limites éticos, então leva um ‘não’. “Contudo, a forma como tentamos pensar em inovação responsável é perguntar se há algo que podemos fazer que lhes permita cumprir os princípios”.
Leia também | Se a inteligência artificial da Google abusar, dê-lhe um puxão de orelhas
O caso específico da inteligência artificial revela-se um osso mais duro de roer, pois na prática dá amplitude a enviesamentos que existem na sociedade há séculos.
“Existe potencial para a inteligência artificial tornar isto melhor, se a treinarmos para ter em conta esses enviesamentos e mitigá-los, podes ter resultados justos porque agora tens dados para dizer que todos os subgrupos devem ser considerados de forma igual e isto pode resultar em resultados mais equilibrados”, considera Jen Gennai. “Existe potencial, mas não acontece sozinho”.
É por isso que as principais tecnológicas que atuam na área da inteligência artificial – Google, Facebook, Microsoft, OpenAI – tornam públicas muitas das suas investigações. O problema é tão grande que tentar resolvê-lo de forma isolada não é a solução.
“O maior problema é a imprevisibilidade e muito do que estamos a fazer é tentar garantir que estamos a ser justos, que os nossos produtos têm a melhor experiência possível, mas não podemos prever tudo e não conseguimos testar tudo, não vamos conseguir estar à frente em tudo. Há coisas em que os nossos dados vão aprender ao longo do tempo e que não sabíamos que ia acontecer, é muito importante. O que é que me mantém acordada? Como é que providenciamos barreiras protetoras para isso”.
Os portugueses que estão a liderar a revolução da inteligência artificial