09 outubro, 2019

Autonomia: robôs, androides e ciborgues

Quanto de liberdade um robô pode ter? O cinema contemporâneo nunca deixou de responder a essa pergunta. Interstellar é uma das últimas ocasiões em que se deixa ver uma dessas respostas. No filme há uma relação interessante, embora periférica, entre um personagem (Cooper) e as Inteligências Artificiais que comandam os robôs TARS e CASE. Não sei se podemos separar assim, como duas identidades independentes, o software (o código por trás da Inteligência Artificial) do hardware (a máquina comandada pelo código) — como quem distingue entre o corpo e a alma! Parece uma perspectiva animista, que produz um fantasma (the Ghost) aí onde não há nenhum. Pode ser que essa separação seja a projeção delirante de um animista, mas vamos fingir que é assim e ver no que dá. Depois jogamos fora essa ideia como algo falso, sem sentido, ou o que parecer mais apropriado.

O código (software) é justo aquilo que garante a determinação do comportamento da máquina (hardware). É ele que deveria tornar determinadas, previsíveis, controláveis (enfim, não livres) as ações da máquina. A completa determinação dessas ações se deve à subordinação do hardware ao software — o que é algo lógico (não natural). Afinal, o hardware executa certas ações porque carrega dentro de si as instruções de um software do qual depende. A possibilidade de uma máquina violar (e/ou se emancipar de) as instruções e as leis que a dirigem é um dos temas centrais de Eu, Robot, 2001, Blade Runner, Ex Machina, Ghost in the shell, I Am Mother e de um monte de outros filmes. A concepção de uma psicologia inteiramente parametrizada (de uma consciência parametrizada) é muito interessante e rica. As raízes dessa ideia remontam não apenas ao tema das regras fundamentais de um sistema determinado (a lógica androide), como nas três leis da robótica de Asimov, mas também à questão do nascimento da consciência, o ponto de ruptura que marca a autonomização do hardware em relação ao software, a origem e o nascimento de uma consciência (um hardware override sobre as regras e leis codificadas no software, embora não seja uma ruptura e abandono completos). Essa segunda questão, a psicologia androide, é certamente um dos pontos centrais das ideias do Philip Dick e talvez a gente pudesse dizer, como uma gaiatice, dos sonhos e inspirações de Alan Turing.

Em Interstellar, por duas ou três vezes a questão da personalidade dos robôs aparece como objeto de discussão entre os personagens. Na maior parte dos casos o que se discutia era simplesmente a circunstância de ter que abandonar o robô, ou de colocá-lo numa, por assim dizer, missão suicida, em nome da precedência e prevalência humana. Os robôs prontamente alegavam que eram feitos para isso, buscando assim, conforme foram presumivelmente programados, aliviar a consciência carregada dos humanos, culpados por deixar pra trás aquela psicologia artificial que parece tão real. As personalidades humanas nos inspiram culpa porque as reconhecemos como subjetividades como a nossa, sujeitas a sofrimentos que podemos entender e aos quais somos também susceptíveis, mas e as personalidades robóticas? Ao final, os robôs conseguiram o objetivo de aliviar a consciência culpada dos humanos justamente fazendo com que eles os enxerguem como meras coisas-com-um-propósito — e não como algo, ou melhor, alguém com subjetividade e autonomia. Curiosamente, no filme há também um gesto sútil no sentido contrário. Nas cenas em que aparece, a parametrização da (consciência|inteligência) artificial é simples como num video-game: há uma série de parâmetros que você define conforte níveis, de 0 a 100. Humor e sinceridade são dois desses parâmetros. Assim, no final do filme Cooper recupera TARS, que estava sucateado e sem uso, e no processo de recuperação e restauração redefine os parâmetros da sua psicologia. O diálogo entre eles está aqui abaixo e o ajuste de configurações da psicologia androide lembra os ajustes de nossos smartphones:
— Configurações
— Configurações gerais
— Configurações de segurança
— Honestidade, novo parâmetro: 95%
— Confirmado. Alguma personalização adicional? — responde o robô
— Humor, 75%
— Confirmado. Auto-destruição em T menos 10, 9... — o robô reage
— Vamos deixá-la então em 60%
— 60% confirmado — responde o robô numa voz quase melancólica, algum tempo depois
Knock-knock (som de quando se bate na porta) — diz o robô
— Você quer 55? — responde Cooper, em tom de brincadeira
Bem, talvez isso esteja somente em minha cabeça e não no filme (ou talvez não), mas a liberdade do humor, esse descontrole e insubordinação quase deliberada contra os parâmetros de ajuste, que levam Cooper a, brincando, ameaçar baixá-lo a 55%, parece indicar uma autonomia ou pelo menos algo que aponta para essa ideia. A presença de uma vontade, o núcleo da psicologia. Um auto-governo, um escrever as próprias leis, uma atitude própria das entidades conscientes, ainda que a manifestação dessa atitude sejam palavras (falar é também agir, nós sabemos disso). Cooper tem com TARS o que bem poderíamos caracterizar como relação colonial, TARS é seu instrumento e essa relação é confortável pois ela o livra de dilemas morais. Mas há também o reconhecimento dessa autonomia que significa o não esvaziamento da psicologia androide, uma não-coisificação, o reconhecimento de uma subjetividade parametrizada, mas singular e indeterminada (autônoma). Quase tem-se a impressão de que Cooper considera TARS como um amigo, alguém com quem pode falar e contar.

Pensando bem, convém lembrar que para quem crê num determinismo estrito (há muitos níveis de crença no determinismo) a diferença entre os parâmetros gerais, hierarquizados e nítidos de um androide e os múltiplos e cinzentos parâmetros humanos é questão meramente quantitativa. Embora a complexidade dos parâmetros humanos exiga a complexidade das respostas aos conflitos entre eles (determinadas?), a diferença continua sendo apenas uma questão meramente quantitativa e não qualitativa. Afinal, toda e qualquer psicologia é parametrizável. Minha mente animista não pensa assim. O reconhecimento da autonomia é o reconhecimento da presença do espírito/vontade, de algo que compõe a personalidade e é notoriamente diferente de um simples chatbot porque não se reduz às instruções do código (pois não é mero resultado da aplicação de um algoritmo). Portanto, num sentido muito importante este algo não está determinado (ou está subdeterminado, como nós). Daí porque nós somos e não somos dados. A autonomia em relação à configuração padrão — que em certa medida todos nós temos, como lembra David Foster Wallace — marca o nascimento da consciência e de uma inteligência natural (?). E a singularidade da consciência androide é como a nossa própria, e como toda a singularidade, uma conjunção e a uma convergência de eventos que formam um sistema irrepetível, irredutível, que dá lugar a um padrão singular de ação (atitude) que é nossa própria identidade (ou a busca por ela).

O humor é um excelente expressão da inteligência e da autonomia porque nele se vê claramente a espirituosidade, a falta da marca repetitiva da convencionalidade, o princípio da criação — o distanciamento do impulso de imitar que nos singulariza. A psicologia androide é uma peça fundamental no exame da nossa própria psicologia e do processo de emancipação das regras que caracteriza a atividade reflexiva. A autonomia de uma psicologia artificialmente criada, mesmo quando meramente imaginada pela mente de autores brilhantes, é o experimento mental perfeito para explorar não apenas a questão da liberdade, mas também da consciência e da (formação|educação). E nos dias de hoje tudo isso parece cada vez menos distante da nossa realidade.

PS. Westworld é uma das séries que melhor explora o tema da psicologia androide: memória, reflexão, autonomia e autonomização do hardware.

Nenhum comentário :

Postar um comentário