Opinião de Klaus-Michael Vogelberg, Chief Technology Officer na Sage (empresa líder no fornecimento de tecnologia que ajuda empresas de todas as dimensões na sua gestão empresarial diária).
Um estudo recente do New York Times sobre a forma como as aplicações dos telemóveis registam a nossa localização, demonstra como é importante que o setor reconheça que a ética das pessoas que desenvolvem e comercializam serviços tecnológicos é tão importante quanto a própria tecnologia.
Para o bem do utilizador, as empresas de tecnologia devem fazer um esforço para tomar consciência dos potenciais riscos dos seus produtos, e ser mais sinceras no modo como os dados das pessoas são utilizados pelas inovações que produzem. Os responsáveis pelo desenvolvimento destas inovações devem exigir aos seus diretores e aos conselhos de administração um compromisso ético para o mundo da tecnologia. Mais especificamente, o mundo dos negócios deve dar visibilidade e recompensas aos defensores da ética nas suas empresas, desenvolver enquadramentos que favoreçam a transparência corporativa e contratar equipas diversificadas para criar, melhorar e interagir com base nestas tecnologias.
A gestão dos dados de forma responsável deixou de ser opcional
Os nossos dados são um ativo com um valor incalculávelpara os profissionais de marketing. Os dados tornaram-se matéria prima semelhante ao petróleo ou ao ouro, pelo que a privacidade do utilizador deve passar a ser uma prioridade (e o objetivo final) para todas as empresas que beneficiem dos mesmos. À medida que as empresas crescem e se transformam, deve priorizar-se sempre o consentimento do utilizador, estabelecendo de forma clara como e quando se podem utilizar os seus dados, localizando os dados recolhidos, colocando a privacidade em primeiro lugar e informando os utilizadores dos processos em que a Inteligência Artificial (IA) é utilizada para tomar decisões delicadas.
Por outro lado, as pessoas já estão a começar a perceber que os dados (aparentemente inofensivos) que introduzem nos seus perfis pessoais, aplicações e plataformas, podem ser retirados de contexto, comercializados e até vendidos sem consentimento. O ponto principal: os consumidores estão a responsabilizar as empresas de big data e big tech pela privacidade dos dados — e o escrutínio público relativamente às empresas que operam no interior e no exterior da tecnologia só irá intensificar-se ainda mais.
Com ou semações das autoridades reguladoras nos Estados Unidos, Reino Unido ou União Europeia, a responsabilidade recai sobre as grandes empresas tecnológicas e a indústria privada para que acelerem os seus esforços no sentido de enfrentar o escrutínio público que se avizinha. Na prática, isto implica que os diretores e os conselhos de administração reconheçam estes problemas, e que se tomem medidas efetivas para os resolver. As pequenas e grandes empresas têm neste momento a grande tarefa de demonstrar todos os passos para melhorar a segurança dos seus dados, a privacidade, a ética e as suas boas práticas.
Diversidade e ética, as novas diretrizes para a gestão de dados
A recolha de dados pessoais pelas plataformas tecnológicas reforçou a necessidade de formação ética para todas as pessoas que controlam informação delicada. A utilização das redes sociais e de plataformas de terceiros destaca a importância de introduzir de forma ética e transparente as tecnologias criadas para distribuir e analisar os dados das pessoas, como a Inteligência Artificial. A diversidade das equipas responsáveis por criar esta tecnologia é igualmente importante, dado que deve refletir a comunidade que as vai utilizar. A igualdade digital deveria ser reconhecida como um direito humano, incluindo a defesa de algoritmos justos, acesso a ferramentas digitais livres e a oportunidade global de desenvolver capacidades digitais.
Muitas empresas orgulham-se de melhorias reativas e retrospetivas para promover a ética e a transparência em produtos já comercializados. A realidade é que é muito mais difícil assegurar a ética de um produto quando já está em circulação.
Na prática, cada empresa deve estabelecer as suas diretrizes, através de um ciclo de desenvolvimento do produto, de acordo com as pessoas responsáveis pelo desenvolvimento da tecnologia. Os testes de acessibilidade, de potenciais erros e de segurança devem ser uma prática comum do desenvolvimento tecnológico. Estes mesmos profissionais devem alargar o alcance dos seus testes para demonstrar que o seu produto é justo, imparcial e ético, antes deste chegar ao mercado ou de ser implementado numa organização.
O futuro da tecnologia passa pela transparência
Eventos recentes confirmam que a abordagem do mundo dos negócios à criação e implementação de tecnologias que consomem dados, como a IA, deve focar-se na ética e na responsabilidade. Durante os seus processos, os fabricantes de tecnologia e de aplicações devem incorporar ambos os princípios no seu desenvolvimento. Uma única empresa que não tenha tomado as precauções necessárias e quebre a relação de confiança com os seus utilizadores, pode causar um efeito dominó que levará os consumidores a perder a confiança nas grandes empresas tecnológicas e noutras empresas que dela tirem partido.
É necessário o desenvolvimento de princípios e processos internos que responsabilizem os seus colaboradores, do conselho de administração ao colaborador mais recente. Estes enquadramentos devem orientar as práticas empresariais e demonstrar claramente o compromisso das empresas com a ética relativa à IA. É por esse motivo, que as empresas estão a desenvolver os seus próprios códigos éticos, a fim de abordarem temas éticos essenciais antes do lançamento de produtos baseados na Inteligência Artificial.
Enfrentar 2019 com um propósito
Efetivamente, já existe atualmente uma força de trabalho e um movimento social e político claramente direcionados para uma gestão ética dos dados, que se originou em certos ambientes da comunidade tecnológica. Idealmente, o resultado será a criação, melhoria e gestão de tecnologia mais ética, que será gerida de forma transparente e responsável. Isto é algo de que o mundo já estava a precisar muito antes das preocupações éticas chegarem à imprensa, às conversas familiares e inclusivamente às agendas dos nossos políticos.
Gerd Leonhard: “As redes sociais tentam-nos viciar e isso deve ser ilegal”