Home >Tecnologia > Como “fake people” pode impactar a justiça?

Como “fake people” pode impactar a justiça?

23 de junho de 2018

No dia 10 de maio de 2018 o Google anunciou os resultados surpreendentes de uma tecnologia chamada Duplex. Seu objetivo é ter o assistente da Google realizando interações com outro ser humano por você. A voz e o comportamento do assistente da Google são tão perfeitos que, quem está do outro lado da linha, não consegue saber se está falando com outro ser humano ou com uma máquina, o assistente da Google.

As duas demonstrações, feitas pelo CEO da Google Sundar Pichai, foram bastante convincentes. A reação de todos os presentes foi preocupante, e os desdobramentos possíveis, ainda mais.

Na primeira, a assistente pessoal Google, com voz feminina, sem se identificar, agendou para sua cliente Lisa um horário para ela cortar o cabelo entre as 10:00 e 12:00 em uma data específica. A assistente fez a chamada, conversou com uma pessoa de verdade do outro lado da linha, que não desconfiou de nada. Durante a conversa, o sistema assistente pessoal também usou expressões, tipo “ah-hã” como se fosse alguém confirmando que está entendendo e escutando a outra pessoa na linha.

Na segunda demonstração, o assistente pessoal da Google, agora com voz masculina, tentou reservar uma mesa para quatro pessoas em um restaurante étnico. Quem atendeu tinha um forte sotaque e uma baixa compreensão da língua inglesa. O assistente foi capaz de entender que o restaurante só fazia reservas para mais de cinco pessoas e que deveriam ir sem reservas para o jantar.

Veja a demonstração original completa:

A reação dos presentes foi de admiração.

De imediato, nenhuma voz se levantou reconhecendo que dois seres humanos foram enganados e se relacionaram com computadores, não com pessoas.

Vieram a seguir as reações e discussão sobre a ética do que foi apresentado pelos pesquisadores da Google, levantada pelos críticos e a comunidade acadêmica.

Se rejeitamos e achamos abusivas as chamadas telefônicas de propaganda feita por computadores, agora aceitaremos o auxílio de assistentes virtuais no relacionamento com outras pessoas?

Há tempos já nos acostumamos com o tal do PhotoShop. Criamos padrões de beleza irreais e transformamos pessoas menos apresentáveis em serem impecáveis nas capas de revistas e fotos produzidas. São duas forças que se sobrepõem, de um lado buscando os padrões de beleza impossíveis e do outro reconhecendo a necessidade de recuperar a beleza real e diversa de todos e de cada um. Já nos acostumamos às imagens falsas, aos “fake views”. Não nos incomoda mais ver coisas que não são reais.

Mais recentemente surgiu a onda de “fake news” que ainda causa grande repúdio, impacto e controvérsia. Muitos ainda discutem como combater a divulgação e o compartilhamento de notícias que não tem fundamentos na verdade. Passa a ser verdade o que se acredita, não o que se suporta em fatos. Será que nos acostumaremos com este tipo de falsidade também, além da falsidade visual?

Chegamos então agora à “fake voice”?

Como isso pode afetar as nossas vidas? Como isso pode impactar os nossos negócios quando alguém contrata uma voz de uma máquina para reservar todos horários de um salão de beleza com reservas falsas e fazer o negócio perder clientes reais? Como isso afetaria a justiça se o telefone de uma pessoa investigada estivesse grampeado e um máquina fizesse ligações e obtivesse conteúdos que pudessem comprometer o dono da linha?

A justiça como pode ser impactada? É baseada em evidências, e estas, que a cada dia, podem ser forjadas de maneira mais perfeita: imagens, documentos, notícias, e agora voz gravada.

Esse ponto de vista de impacto na justiça ainda não é o único que pode impactar a nossa vida. E se uma negociação através de uma LawTech utilizasse a uma máquina com voz? Quais as garantias de cumprimento do acordo? Quais os requerimentos éticos que deveriam ser observados para que os direitos das partes pudessem ser preservados?

Entramos em uma nova era de relacionamento comercial pelo avanço dos assistentes digitais oferecidas no mercado. Mas conforme essa tecnologia melhora e se aprimora, qual é o limite que precisamos estabelecer para definir onde o humano do não humano devem participar?

As LawTech, como a MelhorAcordo por exemplo, oferecem uma solução de inteligência artificial para negociar acordos de processos judiciais e administrativos dentro de parâmetros definidos pela empresa. Mas fica evidente através da plataforma que não existe interação humana por parte do negociador, apenas por parte do demandante.

Quando essa tecnologia avançar para voz, será que o demandante deveria estar ciente que a negociação está sendo realizada por uma máquina?

Qual a sua opinião? O que você gostaria de saber? Comente aqui abaixo desse artigo.

Mas há um passo mais: se aquele tomando a decisão do seu caso fosse uma máquina e não um ser humano? E se os advogados de defesa e acusação também fossem máquinas?

Poderíamos chegar a um ponto onde uma máquina determinaria o que você deve ou não consumir para evitar uma frustração na relação comercial ou de consumo, e assim evitando um litígio, uma disputa e uma reclamação?

Você está preparado para o “fake voice”? E para o “fake voice” na justiça?

 

Thomas Eckschmidt
Co-founder da Melhor Acordo
ResolvJá – Resolvendo conflitos online
www.resolvja.com.br
Empresa certificado B – Melhor para o Mundo
Coautor de “Do Conflito ao Acordo na Era Digital”
www.acordonaeradigital.com.br