Fomos à sede da tecnológica, em Seattle, nos EUA, conhecer a equipa que está a criar diferentes personalidades para sistemas de inteligência artificial e descobrimos que respostas de uma única palavra podem demorar semanas a ser conseguidas.
“Às vezes as pessoas dizem coisas horríveis, de forma anónima, e parte do nosso trabalho é saber responder a estas coisas difíceis. Temos de perceber como podemos responder por forma a manter a conversa fluída e fazê-lo perceber que esta linguagem não leva a lado algum”.
O desabafo é de Deborah Harrison, líder da equipa de interfaces conversacionais da Microsoft, mas mais conhecida por ser a pessoa que tem ajudado a definir a personalidade da Cortana, a assistente digital da gigante norte-americana.
Se há uma parte dos utilizadores que interagem de boa fé com os assistentes digitais, outros são provocadores e mal criados de forma intencional. E o assistente não pode ficar calado.
“Constróis um bot por algum motivo e tens respostas para tudo. Mas depois alguém chega e diz ‘go to hell‘ (vai para o inferno) e as pessoas que estão a desenvolver bots nem pensam nisso. O que devemos responder? Nós identificamos estes cenários. A minha equipa reúne-se quatro vezes por semana e criamos as respostas para as personalidades”.
Por exemplo, a equipa da Microsoft concebeu dezenas de respostas possíveis para o comentário ‘you are boring’ (és aborrecida), ao qual a assistente digital responde com ‘swing and a miss’, uma expressão norte-americana usada para um comentário que não teve piada, foi inapropriado ou não foi percebido.
Deborah é um dos seis elementos que constituem a equipa cuja única tarefa é ajudar os robôs oficiais da Microsoft – incluindo bots que dão apoio técnico em páginas oficiais da empresa – não só a falarem com os humanos, mas a falarem mais como os humanos.
“Sabes que estás a falar com um bot quando falas com um bot? A nossa posição é que deves saber, não deves ficar na dúvida se estás a fazê-lo ou não”.
Leia também | Se a inteligência artificial da Google abusar, dê-lhe um puxão de orelhas
Para ajudar nesta tarefa, os elementos da Microsoft definiram quatro princípios pelos quais regem a forma como os assistentes virtuais falam: têm de gerar confiança; têm de ter sensibilidade; têm de personificar um sentimento positivo; e têm de ser inclusivos.
“Se perguntares à Cortana se ela é gorda, ela responde ‘True‘ (Verdade). Uma única palavra pode demorar dias ou semanas a decidir”, explica a responsável da Microsoft. “Não queremos que tenha uma personalidade espampanante, queremos que te ajude a fazer aquilo que precisas”.
A equipa da qual faz parte acaba por não ser muito tecnológica: há argumentistas, linguistas e até já houve um poeta. Tudo porque para ensinar um robô a falar, é preciso muito equilíbrio emocional e isso é algo que, por agora, só os humanos dominam.
“Se alguém fala com o bot e diz que é gay, pode estar só a comentar ou pode estar a confidenciar. Temos de encontrar uma forma equilibrada para fazer isto”, sublinha. Daí que a resposta que a Cortana dê perante esta afirmação seja ‘Cool, i am AI‘ (Porreiro, eu sou uma inteligência artificial).
“Ela é sempre positiva, não significa que esteja sempre contente, mas a ideia é que as pessoas se sintam bem depois da experiência”, explicou Jonathan Foster, outro elemento da equipa de interfaces conversacionais.
O especialista em linguagem é o primeiro a admitir que durante anos a Microsoft não soube falar para as pessoas. Quando, por exemplo, aparecia uma janela pop-up por causa de um erro provocado no sistema operativo Windows, o texto que surgia na caixa era meramente técnico e nada dizia à esmagadora maioria das pessoas.
“Estávamos a pensar no problema de um ponto de vista de engenharia”, retrata-se. “Queremos pessoas que saibam responder ‘o que significa ser humano?’. Queremos abrir as possibilidades a diferentes tipos de pessoas”.
E sim, por vezes também são cometidos erros. Daí que a equipa mantenha uma ligação próxima e flexível com o lado de engenharia. “Temos de garantir que somos rápidos a remover [quando há erros], queremos ser responsivos. Se houver problema, temos de ser rápidos a reagir”, adianta Jonathan Foster.
“Trabalhamos em comité, normalmente estão as seis pessoas na sala. E trazemos o nosso entendimento coletivo, profissional, cultural e às vezes falhamos. A revisão é uma grande parte do nosso modelo e se encontramos algo que precisa de revisão, vamos investigar”, acrescentou Deborah Harrison.
Agora a Microsoft está a trabalhar para disponibilizar personalidades para bots através de interfaces de desenvolvimento (API): vai haver um mais amigável, outro mais profissional e um que terá um sentido de humor mais apurado. Mediante se é uma empresa de negócios ‘sérios’ ou uma startup mais descontraída, o objetivo é que rapidamente seja possível configurar uma personalidade para estes robôs online.
Daí que Jonathan Foster não tenha dúvidas em dizer: “Os bots não sabem o que dizem, apenas replicam a linguagem humana”.
* A Insider viajou para Seattle a convite da Microsoft
O génio que está a construir um parque de diversões para a inteligência artificial