segunda-feira, 13 de junho de 2022

Filosofia da inteligência artificial





 Desde que o escritor Isaac Asimov escreveu as três leis da robótica – que foi muito analisado quando começaram as pesquisas sobre inteligência artificial – há uma discussão de como a inteligência artificial poderia interferir sobre as diversas camadas sociais. São elas:

 

1.     Um robô não pode ferir um humano ou permitir que um humano sofra algum mal

2.     Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei

3.     Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores.[1]

 

Mas, veio o teste de Turing – Allan Turing o pai da computação contemporânea – que diz que:

“Não é difícil de conceber uma máquina de papel que vai jogar um jogo não muito ruim de xadrez. Agora, pegue três homens para um experimento. A, B e C. A e C devem ser péssimos xadrezistas, B é o operador da máquina de papel. ...Duas salas são usadas com algum mecanismo para comunicação de movimentos, e uma partida é disputada por C e A ou, exclusivamente, a máquina de papel. C pode achar difícil afirmar com quem ele está jogando.”[2]

 

Muitos filósofos que discutem ética e discutem a discussão sobre o que aconteceria se uma inteligência artificial – um autômato – poderia ter uma consciência igual o ser humano. Um autômato poderia passar no teste de Turing e se passar como um ser humano, assim, não poderíamos dizer se ele é um ser humano ou um autômato. Mas, e aí? Será que a consciência humana, um dia, poderia abrigar num autômato? É uma discussão ao mesmo tempo interessante e assustadora, pois, se um autômato tiver uma consciência isso mostra que a consciência é replicável. A meu ver – como Stephen Hawking – seria assustador e poderíamos acabar com a raça humana, porque não poderíamos competir com maneiras muito mais rápidas e muito mais eficazes como os autômatos poderiam ser. Poderia facilitar muitas coisas para o ser humano? Sem dúvida. O problema é ir bem além das “facilidades”.

 

Pode uma máquina agir inteligentemente? Pode resolver qualquer problema que uma pessoa resolveria através do raciocínio?

 

 

Muito se tem questionado sobre isso e é uma pergunta, bastante, pertinente. Para responder essas perguntas temos que analisar o que é inteligência e o que seria raciocínio. Mesmo o porquê, a questão da inteligência foi e ainda está sendo discutida por filósofos e por cientistas e há sempre uma quase unanimidade que é uma característica humana. Mas, há uma certa inteligência entre os outros animais – afinal, somos animais também – e o próprio Turing disse um dia, pelo menos está no filme que retrata a vida dele, que se uma coisa pensa diferente, não quer dizer que não pensa. Porque temos como pensamento algo de humano, algo de inventar e construir culturas. Alguns pesquisadores encontraram cultura entre os golfinhos, educação entre algumas espécies de primatas, mostrando que há um diferencial entre níveis de consciência. Então, que nível de inteligência estamos falando?

Raciocinar é complexo. Porque raciocinar tem a ver com o modo que o ser que tem a inteligência e a consciência acha uma razão logica para tal fenômeno. Portanto, para responder se poderemos ter autômatos que raciocinam, temos que supor que essa inteligência artificial possa tomar decisões sozinha. Escolhas que possam determinar sua conduta num fim prático de ajudar ou para resolver – se for o caso – problemas dentro de uma meta. Por isso mesmo, se tem o método – que vem do grego <<méthodos>> que quer dizer <<através de um caminho>> -- de conseguir tal meta.

Se discuti muito sobre isso e existem bastante divergências, mesmo o porquê, essas questões têm outros elementos que podem, sem dúvida nenhuma, ser importantes para separar um autômato de um humano. Pois, existe o fator consciência.

 

Pode uma máquina possuir uma mente, estados mentais e uma consciência, da mesma maneira que os seres humanos possuem? As máquinas podem sentir?

 

Tenho dúvidas se algum dia isso aconteça. Mas, muitos entusiastas da tecnologia, acredita que em algumas décadas – talvez, daqui um século – autômatos sejam iguais seres humanos. Ora, será que sentimentos são estímulos elétricos e químicos? Será mesmo que somos um amontoado de sistemas neurais estimulados por processos químicos e elétricos? Nada se tem certeza quanto a isso – mesmo a inteligência artificial tem-se muitas dúvidas quanto a isso – e ninguém sabe o processo da consciência. Muito ate cogitam até transferirem a consciência numa máquina artificial. Mas a pergunta é: seria a consciência os as memorias de um indivíduo?  Ou seja, são especulações que não fogem das teorias metafisicas que a ciência quis eliminar, mas, que inevitavelmente, ainda cairmos nelas.

O termo consciência pode significar um conhecimento (ter consciência de algo), uma percepção (estar consciente) ou ter honestidade (esse sujeito tem consciência). Mas, também, pode revelar a noção dos estímulos em volta de um indivíduo que podem conformar a sua existência. Por esse motivo pode se dizer que quem está desmaiado ou em coma esta inconsciente. A consciência também é uma qualidade da mente, considerando abranger qualificações tais como subjetividade, senciência, sapiência, e a capacidade de perceber as relações entre si em um ambiente. É um assunto muito pesquisado na filosofia da mente, na psicologia, neurologia e ciência cognitiva.

No livro “Blade Runner: Androides sonham com ovelhas elétricas?” de Philip K. Dick, os caçadores de recompensas tinham que fazer um teste de empatia para saber se o sujeito era ou não um androide. Ou seja, a empatia deveria ser o primeiro critério para diferenciar um ser humano de um autômato e isso é bastante importante.

 

A inteligência humana e a inteligência de uma máquina são idênticas? É o cérebro humano essencialmente um computador?

 

 

Desde Descartes, os pesquisadores estão tratando o ser humano como máquinas biológicas e não é bem assim. Há critérios para sermos seres humanos que se diferenciam de um autômato – sempre com o critério binário que temos ainda na computação atual – porque, diferente do que pensava Descartes e outros, a questão da racionalidade não é um negócio automático e nem um critério para o ser humano ter que escolher. Pesquisas recentes mostram que o ser humano escolhe, também, com os sentimentos e fazem conexões com o que sente com aquele ser ou objeto. Por isso mesmo, um autômato ainda não escolhe e se escolhe, é por causa de uma programação binaria que se tem que fazer. Como aconteceu com o carro automático que atropelou uma moça – se não me engano, foi da Google – porque não é questão de escolher entre parar ou não, mas reconhecer e ter reflexos de empatia e não empatia daquilo.

Um cérebro computacional não sabe diferenciar, ele só vai dizer sim (1) ou o não (0), não existe nem o talvez ou se aquilo é um perigo ou um mero susto. Ai que mora um psicopata, pois, o psicopata não tem empatia e escolhe só no modo racional e frio da situação do seu desejo.

 

Amauri Nolasco Sanches Júnior – 46 anos, filósofo (bacharelado)



[1] ASIMOV, Isaac. Eu, Robô. São Paulo: Editora Exped, 1978

[2] Turing 1948

Nenhum comentário:

Postar um comentário