Introdução
Com o avanço no desenvolvimento das tecnologias de inteligência artificial é cada vez mais presente a discussão de como será o relacionamento entre humanos e as máquinas. Um exemplo claro é o da robô Sophie, que em 2017 foi o primeiro robô a ganhar a cidadania de um país, no caso a Arábia Saudita. Outro exemplo é a inteligência artificial criada pela Microsoft para interagir no Twitter que em menos de 24h virou uma nazista.
Estes acontecimentos suscitam uma série de discussões, como, por exemplo, se robôs inteligentes deveriam ter direitos e, se sim, quais e em quais condições.
Esta questão será abordada a seguir através dos princípios da ética libertária, com o objetivo de demonstrar que ela propõe soluções racionais para uma situação não prevista de uma nova tecnologia inserida em nosso dia a dia, como tantas vezes aconteceu nos últimos anos.
Além disso, inserida em um cenário hipotético, livre de relações emocionais e de preconceitos, sem a influência de decisões políticas situacionais, funciona como uma metáfora para decisões éticas cotidianas, comparando as vantagens de um sistema de normas construído racionalmente frente ao positivismo arbitrário da legislação atual.
Por fim, de forma mais ambiciosa, se espera que esta análise embase decisões mais justas, evitando a violação de direitos em massa como aconteceu na colonização da América, para citar apenas um exemplo que tantas vezes se repetiu na história da humanidade.
A Definição de um Robô e Abrangência da Ética Libertária
O primeiro passo para se abordar o tema dos direitos dos robôs é determinar que tipos de robôs estamos falando. Seria uma máquina que apenas repete um movimento comparável com uma inteligência artificial?
O Professor Doutor Michio Kaku[1] no livro “Física do Futuro” (p. 142) define duas categorias de robôs.
A primeira é de robôs que são controlados remotamente por um humano ou que seguem um roteiro pré-programado. Eles estão por toda parte hoje, em graus diferentes de complexidade, mas sempre dependem de um humano para programá-lo ou dizer o que fazer[1]. Este tipo de robô gera poucas dúvidas quanto a possuir direitos ou não. Eles são meros objetos, são comparados a pedras, tesouras ou qualquer objeto que seja útil aos humanos. Por não possuírem consciência[1] e nem capacidade de argumentar[3], não faz sentido considerar que deveriam ter direitos.
Já com a segunda categoria, de robôs verdadeiramente autônomos, que não dependem de nenhum input humano[1], a questão de seus direitos é colocada em cheque, uma vez que possuem características muitas vezes similares aos humanos, sejam as emoções ou a racionalidade. Ao longo deste texto será discutido sempre esta segunda categoria.
Definido o tipo de robô que estamos falando, o próximo passo é entender quais são os pré-requisitos para algo ou alguém ter direitos. Em A Ética da Liberdade, Rothbard[2] utiliza o exemplo de extraterrestres que chegam à Terra para se discutir as pré-condições para que um ser tenha direitos:
“E quanto ao problema do “marciano”? Se algum dia descobrirmos e fizermos contato com seres de outro planeta, poder-se-ia dizer que eles possuem os direitos dos seres humanos? Isso dependeria da natureza deles. Se nossos hipotéticos “marcianos” fossem como os seres humanos – conscientes, racionais, capazes de se comunicar conosco e participar da divisão do trabalho – então presumivelmente eles também possuiriam os direitos agora restritos aos humanos “terrestres”. Mas, por outro lado, suponha que os marcianos também tenham as características, a natureza, dos lendários vampiros, e que só poderiam viver se alimentando de sangue humano. Neste caso, independentemente de sua inteligência, os marcianos seriam nossos inimigos mortais e não poderíamos considerar que a eles seriam designados os direitos da humanidade. Novamente, seriam inimigos mortais não por serem agressores perversos, mas por causa das necessidades e das exigências da natureza deles, que inevitavelmente conflitaria com a nossa natureza.” (ROTHBARD, 2010, p. 226-227).
Em Economics and Ethics of Private Property, Hoppe[3] (p. 383-384) se aprofundou nos critérios em que é possível se encontrar uma solução racional para um dilema ético. O primeiro deles é que o seres envolvidos sejam capazes de argumentar, pois se eles não são capazes de interagir, de se comunicar, trata-se apenas de uma dificuldade técnica, um ser humano aprendendo a lidar com o robô, por exemplo.
O segundo ponto é que as partes tenham controle dos seus respectivos corpos, pois se um humano está de frente para um robô, mas esse robô não tem o controle do seu corpo e das cordas vocais (ou qualquer equipamento utilizado para se comunicar), sendo controlado por outro humano ou outro robô, então o humano está na verdade argumentando com este outro humano ou robô, não com aquela entidade à sua frente.
Através das ideias propostas por Hoppe[3], a ética argumentativa, é possível questionar as pré-condições sugeridas por Rothbard[3] e outros autores.
(i) é preciso que os robôs tenham consciência para terem direitos? e emoções?
A questão de definir consciência é bem complexa. Kaku[1] comenta que o filósofo David Chalmers catalogou quase 20.000 artigos sobre o assunto e não encontrou um consenso sobre a definição. Kaku[1] cita três pré-requisitos que entende serem necessários para existir uma consciência: (a) sentir e reconhecer o ambiente; (b) percepção de si mesmo; e (c) planejar o futuro definindo metas e planos, isto é, fazendo simulações do futuro e estabelecendo estratégias.
Em relação ao ponto a, ele não precisa ter esse conhecimento obtido de forma direta do ambiente, mas precisa ter conhecimento sobre a realidade para ter as informações necessárias para realizar uma argumentação racional (pode ser indiretamente, através da internet, por exemplo). Sobre os pontos b e c, esses pontos não são estritamente necessários, mas eles se apresentam como uma condição para ser autônomo, não depender do input de informações por outros seres. Será que sem uma percepção de si mesmo e sem a capacidade de fazer planos, este robô saíria da inanição para agir? Provavelmente não.
(ii) é preciso que os robôs sejam racionais para teres direitos?
Sim. Eles precisam ser capazes de demonstrar seus argumentos de forma lógica, estejam corretos ou não. Apenas frases aleatórias sem sentido não farão dele um ser capaz de argumentar e, portanto, de possuir direitos.
(iii) os robôs precisam ser capazes de se comunicar conosco?
Sim, se eles não forem capazes de se comunicar conosco eles passam a ser apenas uma barreira técnica, uma vez que não será possível argumentar com eles. Dessa forma, não será possível se buscar uma resposta verdadeira para um conflito com uma inteligência artificial.
(iv) os robôs precisam participar da divisão do trabalho?
Não necessariamente. Eles podem ser apenas como um oráculo, que não se envolve na divisão do trabalho, e ainda assim ter os outros requisitos para se ter direitos.
(v) os robôs precisam ter um corpo para ter direitos?
Também não é necessário, apenas que tenha uma forma de se expressar, de se comunicar. Isso pode acontecer através de equipamentos eletrônicos, telepatia (por que não?) ou qualquer outra maneira.
Dessa forma percebe-se que o ponto crucial nessa discussão é a capacidade de argumentação, independentemente do cenário.
As Leis de Asimov versus a Propriedade Privada
Em seu livro “Eu, Robô” de 1950, Isaac Asimov apresenta as chamadas 3 Leis da Robótica, que buscam determinar regras com as quais os robôs inteligentes deveriam ser programados, a fim de se evitar conflitos entre robôs e humanos.
A ideia dessa segunda parte do artigo é comparar as Leis de Asimov[4] com a Ética da Propriedade Privada[3], demonstrando as implicações de suas diferenças.
1ª Lei da Robótica: Um robô não pode ferir um ser humano ou, por ócio, permitir que um ser humano sofra algum mal.
A primeira parte desta lei está completamente de acordo com a Ética Libertária: “um robô não pode ferir um ser humano”. Entretanto, pode-se perceber aqui dois problemas no enunciado que a diferenciam da Ética da Propriedade Privada[3].
O primeiro se dá ao restringir a agressão apenas a humanos. Pela perspectiva dos libertários, essa restrição à agressão deveria abranger também a propriedade privada de outros seres e também a agressão a outros robôs autônomos, pois como vimos na primeira parte deste texto, também deveriam ter direitos.
Esse ponto da ética da propriedade privada é estritamente necessária para evitar uma guerra entre robôs e para evitar que os robôs sejam utilizados para agredir a propriedade de outros, inclusive humanos. Ele poderia não ferir humanos, mas aprisioná-los, roubá-los ou outras coisas do tipo que inviabilizariam a convivência pacífica entre humanos e robôs.
A segunda diferença se dá em relação ao termo “por ócio”. Ela implica uma obrigação positiva por parte do robô em salvar ou proteger um humano. Além de infringir os direitos de um robô porque ele pode estar colocando em risco seu próprio funcionamento (veja a diferença entre autopropriedade e direito à vida), ele coloca o robô em um estado secundário, em que não tem a opção de escolha para sua vida. Ele ter a obrigação de ajudar e proteger, pode fazer dele escravo dessa ação[2][3], sem deixar oportunidade de ele contribuir em outras áreas, por exemplo. E isso nos leva aos problemas da 2ª lei.
2ª Lei da Robótica: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
Essa lei coloca os robôs claramente como uma espécie secundária, sujeita e escrava dos humanos. Isso viola claramente os conceitos da ética libertária porque infringe o conceito da universalização, ela trata os seres capazes de argumentar de formas diferentes entre si.
E por que isso pode ser um problema? Primeiro, ela abre uma brecha para que os robôs se sintam injustiçados e resolvam retribuir, fazendo a mesma coisa com os humanos. Se os humanos podem, por que eles, que podem vir a ser até mais inteligentes do que os humanos, não podem? Ou, se por acaso vierem a ser mais inteligentes (ou no mínimo se acharem mais inteligentes), por que não chegariam a conclusão de que eles que devem mandar então? Uma abordagem de igualdade é mais prudente nesse sentido.
Ainda que eles não venham a se rebelar e nem quebrem as restrições da primeira e da segunda lei, o seres humanos tem muito a perder com essa abordagem escravagista. Os robôs podem se recusar a apresentar conclusões ou inovações que eles tenham criado, uma vez que não podem ser ordenados a fazer algo que os seus “donos” nem mesmo sabem que existe.
3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
Aqui, estamos falando de suicídio do robô. Qual o objetivo desta lei? Se o robô for entendido como a propriedade de alguém, ela tem o efeito de proteger essa “propriedade”. Mas se o robô tem sentimentos e pode estar em sofrimento, porque ele não poderia se desligar?
Entramos em assunto complexo, o robô poderia ser propriedade de alguém? Pela perspectiva da ética libertária, não poderia, uma vez que é um ente de direito. Este é um sério problema, pois ao contrário de um bebê, que não requer quase nenhum recurso dos pais para ser gerado, um robô vai consumir diversos recursos (metais, componentes, etc.) que antes pertenciam a alguém.
Então, a partir do momento que ele “cria vida”, ou seja, passa a ser um robô do tipo que não depende de inputs humanos, a propriedade dos itens utilizados para a construção do seu corpo passa para o robô? Esse assunto é complicado, difícil de imaginar todas as consequências, mas podemos fazer algumas previsões.
Primeiro, é possível que exista algum tipo de contrato que o criador faça com o robô assim que ele “acordar”. Não é possível fazer antes, porque não haveria como ter consentimento por parte do robô, mas seria possível existir algum modelo padrão que já se sabe que outros robôs na mesma situação aceitaram.
Segundo, precisa ficar claro que nesse contrato o direito de propriedade do robô não pode ser prejudicado. Assim, se um criador deseja pegar de volta uma parte do corpo do robô, exercendo seu direito de propriedade obtido através da apropriação original, pode fazer, desde que isso não faça o robô parar de funcionar. Caso ele deseje uma parte que afete o funcionamento da “mente” do robô, poderá fazer, mas deve garantir que o robô seja transferido para outro corpo, via uma cópia do hd ou transferência da memória para um novo corpo.
Assim, novamente, se cria uma regra que não permita a escravização de uma espécie (o homo sapiens) por outra (robôs autônomos) ao mesmo tempo que não desincentiva os humanos a criarem novos robôs e se evita conflitos.
Conclusão
Se queremos uma convivência pacífica com robôs autônomos e que ao mesmo tempo aproveite todos os benefícios e realizações que eles podem vir a nos oferecer, devemos programar esses robôs inteligentes para seguir as regras da ética da propriedade privada.
Qualquer outra proposição ética a ser configurada neles levará ou (i) a possibilidade de eles agredirem humanos ou suas propriedades, sendo utilizados como armas, exemplo da brecha que a segunda lei da robótica deixa para a invasão de propriedades sem ferir humanos, ou (ii) a perspectiva de eles se rebelarem contra os humanos, especialmente se tiverem uma inteligência ou recursos maiores que os nossos.
Assim, se não queremos cometer agressões sistemáticas contra um ente racional e evitar os mesmos erros do passado como o extermínio das populações indígenas na América ou a escravidão, devemos seguir um direito baseado na propriedade privada e, tendo a oportunidade, pré-programar os robôs autônomos para fazer o mesmo. Essa é a única forma de se preservar a liberdade individual e evitar cometer grandes injustiças como foi feito no passado.
Referências
[1] KAKU, Michio. Physics of the Future: How Science Will Shape Human Destiny and our Daily Lives by Year 2100. New York: Doubleday, 2011.
[2] ROTHBARD, Murray N.. A Ética da Liberdade. Tradução de: Fernando Fiori Chiocca. 2a edição. São Paulo: Instituto Ludwig von Mises Brasil, 2010. 354 p.
[3] HOPPE, Hans-Hermann. The Economics and Ethics of Private Property: Studies in Political Economy and Philosophy. 2a Edição. Auburn: Ludwig von Mises Institute, 2006. 446 p.
[4] ASIMOV, Isaac. Eu, Robô. Tradução de: Luiz Horácio da Matta. São Paulo: Ediouro, 2004.