Desde que o escritor Isaac Asimov escreveu as três leis da robótica – que foi muito analisado quando começaram as pesquisas sobre inteligência artificial – há uma discussão de como a inteligência artificial poderia interferir sobre as diversas camadas sociais. São elas:
1.
Um robô não pode ferir um humano ou permitir que
um humano sofra algum mal
2.
Os robôs devem obedecer às ordens dos humanos,
exceto nos casos em que essas ordens entrem em conflito com a primeira lei
3.
Um robô deve proteger sua própria existência,
desde que não entre em conflito com as leis anteriores.[1]
Mas, veio o teste de Turing – Allan Turing o pai da
computação contemporânea – que diz que:
“Não é difícil de conceber uma
máquina de papel que vai jogar um jogo não muito ruim de xadrez. Agora, pegue
três homens para um experimento. A, B e C. A e C devem ser péssimos
xadrezistas, B é o operador da máquina de papel. ...Duas salas são usadas com
algum mecanismo para comunicação de movimentos, e uma partida é disputada por C
e A ou, exclusivamente, a máquina de papel. C pode achar difícil afirmar com
quem ele está jogando.”[2]
Muitos filósofos que discutem ética e discutem a discussão
sobre o que aconteceria se uma inteligência artificial – um autômato – poderia
ter uma consciência igual o ser humano. Um autômato poderia passar no teste de
Turing e se passar como um ser humano, assim, não poderíamos dizer se ele é um
ser humano ou um autômato. Mas, e aí? Será que a consciência humana, um dia,
poderia abrigar num autômato? É uma discussão ao mesmo tempo interessante e
assustadora, pois, se um autômato tiver uma consciência isso mostra que a
consciência é replicável. A meu ver – como Stephen Hawking – seria assustador e
poderíamos acabar com a raça humana, porque não poderíamos competir com
maneiras muito mais rápidas e muito mais eficazes como os autômatos poderiam
ser. Poderia facilitar muitas coisas para o ser humano? Sem dúvida. O problema
é ir bem além das “facilidades”.
Pode uma máquina agir inteligentemente? Pode resolver qualquer problema que
uma pessoa resolveria através do raciocínio?
Muito se tem questionado sobre isso e é uma pergunta,
bastante, pertinente. Para responder essas perguntas temos que analisar o que é
inteligência e o que seria raciocínio. Mesmo o porquê, a questão da inteligência
foi e ainda está sendo discutida por filósofos e por cientistas e há sempre uma
quase unanimidade que é uma característica humana. Mas, há uma certa
inteligência entre os outros animais – afinal, somos animais também – e o
próprio Turing disse um dia, pelo menos está no filme que retrata a vida dele,
que se uma coisa pensa diferente, não quer dizer que não pensa. Porque temos
como pensamento algo de humano, algo de inventar e construir culturas. Alguns
pesquisadores encontraram cultura entre os golfinhos, educação entre algumas
espécies de primatas, mostrando que há um diferencial entre níveis de
consciência. Então, que nível de inteligência estamos falando?
Raciocinar é complexo. Porque raciocinar tem a ver com o
modo que o ser que tem a inteligência e a consciência acha uma razão logica
para tal fenômeno. Portanto, para responder se poderemos ter autômatos que
raciocinam, temos que supor que essa inteligência artificial possa tomar
decisões sozinha. Escolhas que possam determinar sua conduta num fim prático de
ajudar ou para resolver – se for o caso – problemas dentro de uma meta. Por
isso mesmo, se tem o método – que vem do grego <<méthodos>> que quer
dizer <<através de um caminho>> -- de conseguir tal meta.
Se discuti muito sobre isso e existem bastante divergências,
mesmo o porquê, essas questões têm outros elementos que podem, sem dúvida nenhuma, ser importantes para separar um autômato de um humano. Pois, existe o
fator consciência.
Pode uma máquina possuir uma mente, estados mentais e uma consciência, da
mesma maneira que os seres humanos possuem? As máquinas podem sentir?
Tenho dúvidas se algum dia isso aconteça. Mas, muitos entusiastas
da tecnologia, acredita que em algumas décadas – talvez, daqui um século –
autômatos sejam iguais seres humanos. Ora, será que sentimentos são estímulos
elétricos e químicos? Será mesmo que somos um amontoado de sistemas neurais
estimulados por processos químicos e elétricos? Nada se tem certeza quanto a
isso – mesmo a inteligência artificial tem-se muitas dúvidas quanto a isso – e
ninguém sabe o processo da consciência. Muito ate cogitam até transferirem a
consciência numa máquina artificial. Mas a pergunta é: seria a consciência os
as memorias de um indivíduo? Ou seja,
são especulações que não fogem das teorias metafisicas que a ciência quis
eliminar, mas, que inevitavelmente, ainda cairmos nelas.
O termo consciência pode significar um conhecimento (ter
consciência de algo), uma percepção (estar consciente) ou ter honestidade (esse
sujeito tem consciência). Mas, também, pode revelar a noção dos estímulos em
volta de um indivíduo que podem conformar a sua existência. Por esse motivo
pode se dizer que quem está desmaiado ou em coma esta inconsciente. A consciência
também é uma qualidade da mente, considerando abranger qualificações tais como
subjetividade, senciência, sapiência, e a capacidade de perceber as relações entre
si em um ambiente. É um assunto muito pesquisado na filosofia da mente, na
psicologia, neurologia e ciência cognitiva.
No livro “Blade Runner: Androides sonham com ovelhas
elétricas?” de Philip K. Dick, os caçadores de recompensas tinham que fazer um teste
de empatia para saber se o sujeito era ou não um androide. Ou seja, a empatia deveria
ser o primeiro critério para diferenciar um ser humano de um autômato e isso é
bastante importante.
A inteligência humana e a inteligência de uma máquina são idênticas? É o
cérebro humano essencialmente um computador?
Desde Descartes, os pesquisadores estão tratando o ser
humano como máquinas biológicas e não é bem assim. Há critérios para sermos
seres humanos que se diferenciam de um autômato – sempre com o critério binário
que temos ainda na computação atual – porque, diferente do que pensava Descartes
e outros, a questão da racionalidade não é um negócio automático e nem um critério
para o ser humano ter que escolher. Pesquisas recentes mostram que o ser humano
escolhe, também, com os sentimentos e fazem conexões com o que sente com aquele
ser ou objeto. Por isso mesmo, um autômato ainda não escolhe e se escolhe, é
por causa de uma programação binaria que se tem que fazer. Como aconteceu com o
carro automático que atropelou uma moça – se não me engano, foi da Google –
porque não é questão de escolher entre parar ou não, mas reconhecer e ter
reflexos de empatia e não empatia daquilo.
Um cérebro computacional não sabe diferenciar, ele só vai
dizer sim (1) ou o não (0), não existe nem o talvez ou se aquilo é um perigo ou
um mero susto. Ai que mora um psicopata, pois, o psicopata não tem empatia e
escolhe só no modo racional e frio da situação do seu desejo.
Amauri Nolasco Sanches
Júnior – 46 anos, filósofo (bacharelado)
Nenhum comentário:
Postar um comentário