No que parecia ser um verdadeiro filme de ficção científica, ou uma reconstrução estranha de perdidos no espaço, em outubro de 2017, o robô Sophia foi apresentado à Organização das Nações Unidas – ONU, momento em que a respectiva inteligência robótica, arranjada em estrutura física humanoide, com rosto semelhante ao humano e roupas formais, teve uma conversa com a então vice-secretária-geral da ONU sobre temas diversos.

A inteligência artificial do robô Sophia impressionou tanto os líderes mundiais que a Arábia Saudita decidiu por conceder cidadania ao tal robô, elevando-o à condição de “pessoa”.

De fato, a surpresa foi global, não pela Arábia Saudita humanizar a tal ponto uma máquina, mas a questão é acima de tudo conceitual, ou seja, se a inteligência artificial vestida com roupas formais e pele sintética foi colocada na condição de pessoa, isso significa que ter um nascimento biológico e possuir a capacidade encefálica de pensar e raciocinar apenas não me diferencia, legalmente, de máquinas com capacidade semelhante.

Ora, se aquilo que é inato ao humano não é fator determinante para me considerar pessoa, então o que seria? Essa questão filosófica que já foi indagada desde tempos imemoriais não será respondida com facilidade e muito menos pelo sistema jurídico/legal de qualquer nação soberana.

O fato é que o tratamento dado às inteligências artificiais, sejam corpóreas (como o robô Sophia) ou exclusivamente digitais é um assunto urgente a ser devidamente regulado e abordado pelo Estado, já que se uma máquina é elevada à condição de pessoa, necessariamente se torna ou deveria se tornar sujeita à direitos e deveres na ordem social.

Isto é, poderá a inteligência artificial com status de cidadania votar? casar? se desligarem seu sistema, seria considerado assassinato? Apesar dos questionamentos anteriores, há algo ainda mais premente: no estudo realizado pelos professores Godinho e Rosenvald (2019)1 se questiona a responsabilidade das inteligências artificiais e robôs em relação aos seus atos, notadamente àqueles atos realizados autonomamente, ou seja, como responsabilizar um robô em caso deste causar dano à alguém?

Essa pergunta é mais importante do que parece e fundamental para a continuidade da questão. Lembremos da literatura de Isac Asimov da qual na obra “Eu, Robô” composto por contos nos quais a humanidade enfrenta diversos conflitos com os robôs, demandando a criação das chamadas “leis da robótica” que consistem em 3 máximas: 1 – Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal; 2-Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei; 3-Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

As 3 leis acima podem até parecer interessantes e eficientes, mas, no entanto, elas são apenas o que são, isto é, trechos de uma obra literária.

Por essas razões, me parece que num sistema que tem a forte tendência de enxergar as máquinas de forma humanizada, impreterível que a proteção prévia da condição humana seja objeto de amplo questionamento.

1 GODINHO, Adriano Marteleto; ROSENVALD, Nelson. Inteligência artificial e a responsabilidade civil dos robôs e de seus fabricantes. In: ROSENVALD, Nelson; DRESCH, Rafael de Freitas Valle; WESENDONCK, Tula. Responsabilidade civil: novos riscos. Indaiatuba: Foco, 2019, p. 21-43.

Topo