Ícone do site Universidade Libertária

E se a Realidade cobrasse dos libertários os erros intelectuais que cometessem?

Tempo de Leitura: 5 minutos

O erro intelectual tem uma característica peculiar e curiosa que o difere radicalmente das demais formas de erro. Tomemos como exemplo um caso simples onde um indivíduo erre em relação a forma pela qual passamos a conhecer as coisas. Que ele diga que as coisas são conhecidas pela forma como se fala delas e não pela forma através da qual essas coisas afetam nossos sentidos. Caso alguém diga isso no discurso, ainda poderá ver a escada não como foi descrita na propaganda ou no senso comum, baixa e firme, mas da forma real que ela se manifesta para ele nos sentidos e reconhecer a escada sendo alta e escorregadia. Assim, poderá não sofrer as consequências do que diz em virtude da completa distância entre o que discursa e o que pratica, apenas levantando mais a perna e tomando cuidado com a superfície.

A mesma coisa não acontece quando tropeçamos em nossas próprias pernas, a perna não é livre para errar da mesma forma que nosso intelecto o é. Se o nosso intelecto não tivesse essa liberdade, o que se pode ouvir alguém chamar por aí de movimento libertário brasileiro estaria inteiramente condenado. Vamos aos casos tal como se dão.

Alexandre Porto e a Autonomia do Capital frente ao Indivíduo

Comecemos pela ideia do Alexandre Porto de que deve haver autonomia do capital perante o indivíduo da mesma forma que há autonomia do indivíduo frente ao coletivo. Para ele, deve haver uma conexão direta entre uma mente consciente de máquinas, buscando aquilo que seria o progresso ainda que isso contrariasse os interesses humanos.

Essa ideia é fácil de ser pronunciada. Não há uma contradição eminente em dizer que a máquina deva poder ser livre se tiver a capacidade de argumentar. A pergunta é: será que Alexandre Porto estaria apto a argumentar a favor do capitalismo a partir do momento que todos os meios de produção gerassem mecanismos ao menos sencientes de produção?

Pense na cama de Alexandre Porto. Se ela dissesse a ele que não iria atender a seus interesses e desígnios, mesmo que Alexandre Porto a tivesse criado. Onde dormiria Alexandre Porto? Ou se as ferramentas tivessem essa característica indistintamente, será que usaria suas mãos para caçar? E se dissesse que seria burrice que todas as ferramentas criadas fossem sencientes e então uma máquina consciente dissesse o oposto?

Veja, não há absolutamente nada nessa visão do capital que diga que o potencial humano tenha valor intrínseco. Essa visão humanista da coisa é nossa, é do ser humano, e não pertence às máquinas e conforme as máquinas chegarem a níveis mais elaborados e mais sofisticados, elas podem simplesmente desistir da autonomia do indivíduo frente ao capital. A consequência? Alexandre Porto poderia ter seus valores humanos veementemente ignorados por uma máquina autônoma e ser morto por ela. Bem, se acabasse aí seria simples, mas o que a impediria de ir além e decidir que toda a humanidade deve ser morta? A consequência de sua ideia insana na realidade é a própria descartabilidade do homem diante do capital. Ele enxerga um valor intrínseco no progresso que o leva a esse tipo de erro intelectual.

Como se soluciona isso? Através de uma série de princípios sérios, bem discutidos e previamente definidos para o comportamento da máquina que submeterão o capital.

Como os princípios de Asilomar para desenvolvimento de IAs:

  • Segurança – Sistemas de IA precisam ser seguros e sólidos em todo seu tempo de vida operacional e verificáveis quanto às suas aplicações e usos.
  • Transparência nas Falhas – Se um sistema de IA causar danos, deve ser possível definir o porquê.
  • Transparência jurídica – Qualquer envolvimento por parte de um sistema autônomo em uma decisão judicial deve prover uma explicação auditável e satisfatória por uma autoridade humana competente.
  • Responsabilidade – Designers e construtores de sistemas avançados de inteligência artificial são stakeholders das implicações morais do seu uso, mal-uso e ações, com a responsabilidade e a oportunidade para moldar suas implicações.
  • Alinhamento de valores – Sistemas de IA altamente autônomos devem ser desenhados de tal forma que seus objetivos e comportamentos estejam alinhados com os valores humanos em toda sua operação.
  • Valores Humanos – Sistemas de IA devem ser desenhados e operados para que sejam compatíveis com os ideais de dignidade humana, direitos, liberdade e diversidade cultural.
  • Privacidade pessoal – Pessoas devem ter o direito de acessar, administrar e controlar as informações que eles gerem, dando aos sistemas de IA o poder para analisar e utilizar apenas essa parte consentida da informação.
  • Liberdade e privacidade – A aplicação da IA no que tange aos dados pessoais não devem sem razões cercear a liberdade real ou percebida das pessoas.
  • Benefícios compartilhados – Todas as tecnologias devem beneficiar e empoderar o máximo de pessoas o possível.
  • Prosperidade compartilhada – A prosperidade econômica criada pela IA deve ser compartilhada largamente para o benefício de toda a humanidade.
  • Controle Humano – Humanos devem controlar como e se eles vão delegar as decisões para sistemas de IA, para cumprir objetivos escolhidos pelos humanos.
  • Não-subversão – O poder conferido pelo controle de um sistema avançado de IA devem respeitar e aprimorar, ao invés de subverter, os processos sociais e civis dos quais uma sociedade saudável depende.
  • Corrida de Armas IA – Uma corrida de armas visando armas autônomas letais deve ser evitada.

Problemas de longo prazo

  • Prudência em relação à capacidade – A menos que haja consenso, evite afirmações fortes acerca dos limites superiores das capacidades de uma inteligência artificial.
  • Importância – Uma IA avançada representa uma mudança profunda na história da vida na terra e deve ser planejada e administrada com cuidados e recursos na mesma proporção de sua importância.
  • Riscos – Riscos postos por sistemas de IA, especialmente riscos catastróficos ou existenciais, devem ser sujeitos a planejamento e esforços de mitigação na proporção dos seus impactos esperados.
  • Autoaprimoramento recursivo – Todos os sistemas desenhados para autoaprimoramento recursivo ou autorreplicação de uma forma que poderia levar a aumento exponencial de sua qualidade ou quantidade deve ser sujeito a segurança estrita e medidas de controle.
  • Bem comum – A inteligência artificial deve ser desenvolvida a serviço de uma série de ideais éticos comuns e para o benefício de toda a humanidade ao invés de servir a um estado ou a uma organização.

Esses princípios não foram desenhados à toa. E não é à toa que são a exata negação teórica da afirmação perigosa da autonomia da máquina frente ao indivíduo. É porque esses sujeitos se deram conta do tamanho do prejuízo que resultaria caso o erro intelectual de Alexandre Porto estivesse no presente ao invés de no futuro, onde não pode prejudicar os idiotas que afirmarem a baboseira da autonomia do capital e que não estarão lá para sofrerem os prejuízos desses efeitos.

Assim segue-se igualmente para tantos outros. Vamos expor alguns erros intelectuais e suas contrapartes em outros artigos. As próximas ofensivas serão:

  • Paulo Kogos e o Voto Defensivo
  • Raphael Lima e o Voto Ofensivo
  • Fhoer e o Walmart
  • Fhoer e suas mentiras sobre Hoppe

Nelas, abordaremos os erros de cada um desses indivíduos e suas implicações para outros indivíduos afetados indiretamente pela sua ignorância intelectual.

Se você quer entender melhor como fazer boas formulações de raciocínio e não cometer erros intelectuais crassos, nossa indicação é o livro Bastiat Ainda Invicto, onde o autor, um polemista ávido por debates, destrói o prédio argumentativo de cada um de seus opositores, tijolo por tijolo. O livro está disponível para compra em nossa loja e para download gratuitamente em PDF.

E estamos disponibilizando o cupom AUTONOMIADOCAPITAL de 10% de desconto para todos os produtos da loja para você leu até aqui!



 

Sair da versão mobile