Utilizadores vão poder contestar escolhas feitas pelos sistemas de inteligência artificial da empresa – e tudo em nome da ética.
A Google já enfrentou – e ainda enfrenta – problemas por os seus algoritmos apresentarem preconceito e enviesamento relativamente a questões como género, etnia ou ideologia política. Mas se o trabalho de Jen Gennai e da sua equipa resultar, as polémicas por falta de ética têm os dias contados.
A executiva, líder de inovação responsável em inteligência artificial (IA), está a trabalhar em novos mecanismos para tornar os serviços Google mais transparentes, éticos e justos.
Para a tecnológica, o segredo está numa receita com três ingredientes: criar algoritmos que explicam aos utilizadores por que razão tomaram aquela decisão ou fizeram determinada sugestão; criar algoritmos que são facilmente interpretados pelos programadores, pois no final são estes quem vão definir a influência que a IA tem no dia-a-dia dos utilizadores; e, aquela que acaba por ser a grande novidade, a possibilidade de os consumidores contestarem os resultados que lhes são mostrados.
“São os três grandes esforços de investigação em que estamos a trabalhar para termos níveis de transparência, tanto para os programadores como para os consumidores. A possibilidade de contestação é uma nova área para fazermos investigação. (…) Falta perceber se faz sentido ter a contestabilidade em todos os produtos ou só em determinados casos.” Por agora, a empresa não avança uma data sobre quando o sistema de contestação fica amplamente disponível.
A responsável confirma que já foram cancelados projetos por não cumprirem as linhas éticas da empresa. “Temos um interface de reconhecimento facial de utilização generalista. Apesar de o usarmos no Google Photos para reconhecer pessoas, quando estávamos a avaliar se devíamos disponibilizá-lo, concluímos que a nossa abordagem não tinha sido bem pensada.”
Este é o novo lado da Google. Agora que a inteligência artificial é a prioridade estratégica da empresa e é uma tecnologia que já influencia quase todos os seus principais produtos – do e-mail aos mapas, passando pelo motor de busca e pelo YouTube -, qualquer problema que surja a nível ético pode ter consequências graves.
“Muitas pessoas, culturas e regiões diferentes têm as suas próprias definições [de preconceito]. Enquanto empresa global tentamos perceber como podemos ser o mais consistentes e inclusivos possível à medida que trabalhamos com pessoas de todo o mundo.”
Leia também | O génio que está a construir um parque de diversões para a inteligência artificial
A maior transparência e explicabilidade dos algoritmos vai ser importante sobretudo para casos em que decisões feitas por computadores podem pôr em causa a vida dos humanos. Se um carro autónomo atropelar alguém, quem é o responsável?
“Continuamos a ter essa conversa de perceber todos os que estão envolvidos naquela situação, mas também não acreditamos que devemos tomar essa decisão sozinhos. Queremos garantir que estamos a falar com políticos, reguladores, todas as pessoas da indústria que estão a trabalhar neste problema, para tentar perceber e garantir que estamos todos de acordo sobre quem poderá ser responsabilizado. É uma conversa em evolução e não temos a resposta ainda.”
Atualmente, a Google tem perto de três pessoas a trabalhar diretamente no desenvolvimento de algoritmos de inteligência artificial, mas a ambição da empresa é que todos os funcionários conheçam, apliquem e sejam responsáveis pelas falhas éticas dos seus produtos.
“Damos treinos de ética aos trabalhadores em toda a empresa, temos um conjunto de treinos de responsabilidade para ajudar as equipas a tomar essas decisões numa base diária. Esperamos, eventualmente, poder dizer que cem mil pessoas estão a trabalhar nisto, mas por agora ainda estamos a construir a nossa infraestrutura, os treinos, as ferramentas e somos um grupo mais pequeno.”
Fernando Pereira: O homem na cadeira de sonho da inteligência artificial