Quando os robôs irão merecer direitos humanos?

Filmes e programas de TV como Blade RunnerHumans e Westworld, onde robôs altamente avançados não têm direitos como os humanos, incomodam nossa consciência. Eles nos mostram que nossos comportamentos não são apenas prejudiciais aos robôs – eles também nos rebaixam e nos diminuem enquanto espécie. Nós gostamos de pensar que somos melhores que os personagens na tela, e que quando chegar a hora, faremos a coisa certa e trataremos as máquinas inteligentes com um pouco mais de respeito e dignidade.Quando os robôs irão merecer direitos humanos?

Com cada avanço em robótica e inteligência artificial, estamos nos aproximando do dia em que máquinas sofisticadas combinarão as capacidades humanas em todos os aspectos significativos – inteligência, percepção e emoções. Quando isso acontecer, teremos que decidir se essas entidades são pessoas e se e quando -elas devem receber direitos, liberdades e proteções equivalentes às dos seres humanos.

Conversamos com especialistas em ética, sociólogos, juristas, neurocientistas e teóricos da IA (Inteligência Artificial) ​​com diferentes visões sobre essa ideia complexa e desafiadora. Parece que quando chegar a hora, é improvável que cheguemos a um acordo total. Aqui estão alguns desses argumentos.

Por que dar direitos às IAs em primeiro lugar?

Nós já atribuímos responsabilidade moral a robôs e projetamos consciência neles quando eles parecem super-realistas. Quanto mais inteligentes e vivas nossas máquinas parecem ser, mais queremos acreditar que são como nós – mesmo que ainda não sejam.

Mas, quando nossas máquinas adquirirem um conjunto básico de capacidades semelhantes às humanas, caberá a nós vê-las como iguais sociais e não apenas meras propriedades. O desafio estará em decidir quais limiares cognitivos, ou traços, qualificam uma entidade para consideração moral e, consequentemente, direitos sociais. Filósofos e especialistas em ética estão refletindo sobre essas mesmas questões há literalmente milhares de anos.

“Os três limiares mais importantes da ética são a capacidade de sentir dor, autoconsciência e capacidade de ser um ator moral responsável”, disse o sociólogo e futurista James Hughes, diretor executivo do Instituto de Ética e Tecnologias Emergentes, ao Gizmodo.

“Nos humanos, se tivermos sorte, esses traços se desenvolvem sequencialmente. Mas na inteligência de máquina pode ser possível ter um bom cidadão que não seja autoconsciente ou um robô autoconsciente que não sinta prazer e dor ”, disse Hughes. “Precisamos descobrir se vai funcionar assim”.

É importante ressaltar que a inteligência não é a mesma coisa que a senciência (a capacidade de perceber ou sentir as coisas), a consciência (consciência do corpo e do ambiente) ou a autoconsciência (reconhecimento dessa consciência). Uma máquina ou algoritmo pode ser tão inteligente – se não mais – do que os humanos, mas ainda não possuem essas importantes capacidades. Calculadoras, Siri e algoritmos de negociação de ações são inteligentes, mas não são conscientes de si mesmos, são incapazes de sentir emoções e não podem experimentar sensações de nenhum tipo, como a cor vermelha ou o sabor da pipoca.

“Inteligência não é o mesmo que senciência (a capacidade de perceber ou sentir coisas), consciência (consciência do corpo e ambiente) ou a autoconsciência (reconhecimento dessa consciência).”

Hughes acredita que a autoconsciência vem acompanhada de alguns direitos mínimos de cidadania, como o direito de não ser posse, e ter seus interesses para com a vida, a liberdade e o crescimento respeitados. A capacidade tanto de autoconsciência quanto de capacidade moral (ou seja, saber o certo do errado, pelo menos de acordo com os padrões morais atuais) devem vir acompanhadas de direitos de cidadania iguais aos dos humanos adultos, argumenta Hughes, tais como os direitos de fazer contratos, propriedade, voto, e assim por diante.

“Nossos valores iluministas nos obrigam a olhar para essas características verdadeiramente importantes de portadores de direitos, independentemente das espécies, e colocar de lado as restrições pré-iluministas sobre o porte de direitos apenas para humanos, europeus ou homens”, ele disse. Obviamente, nossa civilização não alcançou os elevados objetivos pró-sociais, e a expansão dos direitos continua um trabalho em progresso.

Quem pode ser uma “pessoa”?

Nem todas as pessoas são seres humanos. Linda MacDonald-Glenn, bioeticista da Universidade Estadual da Califórnia em Monterey Bay e membro do corpo docente do Alden March Bioethics Institute no Albany Medical Center, diz que a lei já considera não humanos como indivíduos portadores de direitos. Este é um desenvolvimento significativo, porque já estamos estabelecendo precedentes que poderiam abrir caminho para a concessão de direitos equivalentes aos dos humanos para a IA no futuro.

“Por exemplo, nos Estados Unidos, as corporações são reconhecidas como pessoas jurídicas”, ela disse ao Gizmodo. “Além disso, outros países estão reconhecendo a natureza interconectada da existência nesta Terra: a Nova Zelândia recentemente reconheceu os animais como seres sencientes, exigindo o desenvolvimento e a emissão de códigos de bem-estar e conduta ética, e o Supremo Tribunal da Índia declarou recentemente que os rios Ganges e Yamuna são pessoas jurídicas que possuem os direitos e deveres de indivíduos”.

Também existem esforços tanto nos Estados Unidos quanto em outros lugares para garantir direitos pessoais a certos animais não-humanos, como grandes símios, elefantes, baleias e golfinhos, para protegê-los contra coisas como confinamento indevido, experimentos e abusos. Ao contrário dos esforços para reconhecer legalmente corporações e rios como pessoas, isso não é uma espécie de gambiarra legal. Os proponentes dessas propostas estão defendendo uma noção de personalidade para essas entidades de acordo com certas habilidades cognitivas que elas possuem, como a autoconsciência.

MacDonald-Glenn diz que é importante rejeitar o sentimento da velha escola que enfatiza a racionalidade humana, por meio do qual os animais, e por extensão lógica os robôs e a inteligência artificial, são simplesmente vistos como “máquinas sem alma”. Ela argumenta que as emoções não são um luxo, mas um componente essencial do pensamento racional e do comportamento social normal. São todas essas características, e não apenas a capacidade de processar números, que importam ao decidir quem ou o que é merecedor de consideração moral.

De fato, o corpo de evidências científicas mostrando as capacidades emocionais dos animais está aumentando constantemente. O trabalho com golfinhos e baleias sugere que eles são capazes de vivenciar o luto, enquanto a presença de neurônios-fusiformes (o que facilita a comunicação no cérebro e possibilita comportamentos sociais complexos) implica que eles são capazes de empatia. Os cientistas também documentaram uma ampla gama de capacidades emocionais em grandes macacos e elefantes. Eventualmente, a IA consciente pode estar imbuída de capacidades emocionais semelhantes, o que elevaria seu status moral em uma porção significativa.

“Limitar o status moral somente àqueles que podem pensar racionalmente pode funcionar bem para a IA, mas isso é contrário à intuição moral”, disse MacDonald-Glenn. “Nossa sociedade protege aqueles sem pensamento racional, como um recém-nascido, pessoas em coma, e incapacitados física ou mentalmente, e promulgou leis contra a crueldade animais”. Sobre a questão da concessão do status moral, MacDonald-Glenn recorre ao filósofo inglês Jeremy Bentham, que disse a famosa frase: “A questão não é se eles podem raciocinar nem se eles podem falar mas, eles podem sofrer?”.

A consciência pode surgir em uma máquina?

Mas nem todos concordam que os direitos humanos devem ser estendidos aos não-humanos – mesmo que eles demonstrem capacidades como emoções e comportamentos autoconscientes. Alguns pensadores argumentam que apenas humanos devem poder participar do contrato social, e que o mundo pode ser adequadamente organizado em Homo sapiens e tudo mais – seja “tudo mais” seu videogame, geladeira, cachorro de estimação ou robô de companhia.

O advogado e escritor americano Wesley J. Smith, membro sênior do Centro de Excepcionalismo Humano do Discovery Institute, diz que ainda não alcançamos os direitos humanos universais, e que é extremamente prematuro começar a nos preocupar com os futuros direitos dos robôs.

“Nenhuma máquina deve ser considerada um portador de direitos”, disse Smith ao Gizmodo. “Até a máquina mais sofisticada é apenas uma máquina. Não é um ser vivo. Não é um organismo. É apenas a soma de sua programação, seja feita por um humano, por outro computador ou por auto-programação”.

Smith acredita que apenas seres humanos e feitos humanos devem ser considerados pessoas.

“Temos deveres para com os animais que podem sofrer, mas eles nunca devem ser considerados um ‘alguém’ “, disse ele. Apontando para o conceito de animais como “propriedade senciente”, ele diz que é um identificador válido porque “colocaria um fardo maior em nós para tratar nossa propriedade senciente de maneiras que não lhe seja causado sofrimento indevido, como distinto da propriedade inanimada”.

Implícito na análise de Smith, está a suposição de que os seres humanos, ou organismos biológicos, têm algo que as máquinas nunca serão capazes de alcançar. Em eras anteriores, essa “coisa” era uma alma ou espírito ou algum tipo de força vital indescritível. Conhecida como vitalismo, essa ideia foi amplamente substituída por uma visão funcionalista (computacional) da mente, na qual nossos cérebros são separados de qualquer tipo de fenômeno sobrenatural. No entanto, a ideia de que uma máquina nunca será capaz de pensar ou experimentar a autoconsciência como um humano ainda persiste hoje, mesmo entre os cientistas, refletindo o fato de que nossa compreensão da base biológica da consciência em humanos ainda é muito limitada.

Lori Marino, professora de neurociência e biologia comportamental do Emory Center for Ethics, diz que as máquinas provavelmente nunca merecerão direitos ao nível humano, ou quaisquer direitos. A razão, diz ela, é que alguns neurocientistas, como Antonio Damasio, teorizam que ser senciente tem tudo a ver com se o sistema nervoso é determinado pela presença de canais iônicos dependentes de voltagem, que Marino descreve como o movimento de íons carregados positivamente através da membrana celular dentro de um sistema nervoso.

“Esse tipo de transmissão neural é encontrada nos organismos mais simples, protista e bactérias, e esse é o mesmo mecanismo que evoluiu até os neurônios e, depois, até os sistemas nervosos e, depois, para os cérebros”, disse Marino ao Gizmodo. “Em contraste, os robôs e toda a IA são feitos atualmente pelo fluxo de íons negativos. Dessa forma, todo o mecanismo é diferente”.

De acordo com essa lógica, Marino diz que até mesmo uma água-viva tem mais sensibilidade do que qualquer robô complexo poderia ter.

“Não sei se essa idéia está correta ou não, mas é uma possibilidade intrigante e que merece ser examinada”, disse Marino. “Eu também acho isso intuitivamente atraente porque parece haver algo em ser um ‘organismo vivo’ que é diferente de ser uma máquina realmente complexa. A proteção legal na forma de pessoalidade deve ser claramente fornecida a outros animais antes de qualquer consideração de tais proteções serem aplicadas a objetos, e robôs na minha opinião são objetos”.

David Chalmers, diretor do Centro de Mente, Cérebro e Consciência da Universidade de Nova York, diz que é difícil ter certeza desta teoria, mas ele diz que essas idéias não são especialmente sustentáveis e vão além da evidência.

“Não há muita razão no momento para pensar que o tipo específico de processamento nos canais iônicos seja essencial para a consciência”, disse Chalmers ao Gizmodo. “Mesmo se esse tipo de processamento fosse essencial, não haveria muita razão para pensar que a biologia específica é necessária, em vez da estrutura geral de processamento de informações que encontramos nela. Se [esse for o caso], uma simulação desse processamento em um computador poderia ser consciente”.

Outro cientista que acredita que a consciência é inerentemente não-computacional é Stuart Hameroff, professor de anestesiologia e psicologia na Universidade do Arizona. Ele argumentou que a consciência é uma característica fundamental e irredutível do cosmos (uma idéia conhecida como panpsiquismo). De acordo com essa linha de pensamento, os únicos cérebros capazes de verdadeira subjetividade e introspecção são aqueles compostos de matéria biológica.

A ideia de Hameroff parece interessante, mas também está fora do domínio da opinião científica dominante. É verdade que não sabemos como a sensibilidade e a consciência surgem no cérebro, mas o simples fato é que elas surgem no cérebro, e em virtude desse fato, é um aspecto da cognição que devem aderir às leis de física. É totalmente possível, como notou Marino, que a consciência não possa ser replicada em um fluxo de uns e zeros, mas isso não significa que não iremos eventualmente ultrapassar o paradigma computacional atual, conhecido como arquitetura Von Neumann, ou criar um sistema de IA híbrido no qual a consciência artificial seja produzida em conjunto com componentes biológicos.

Bio-Pod da Existenz

Quando os robôs irão merecer direitos humanos?

Dois Google Homes conversando entre si. Captura de tela via Twitch.

Ed Boyden, um neurocientista do Synthetic Neurobiology Group e professor associado do MIT Media Lab, diz que ainda é prematuro fazer essas perguntas.

“Não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”, disse Boyden ao Gizmodo. “Tecnicamente, você nem sabe se estou consciente, certo? Dessa forma é muito difícil avaliar se uma máquina tem, ou pode ter consciência, no momento atual”.

Boyden não acredita que exista evidência conclusiva de que não podemos replicar a consciência em um substrato alternativo (como um computador), mas admite que há discordância sobre o que é importante capturar em um cérebro emulado. “Podemos precisar de muito mais trabalho para entender o que é fundamental”, ele disse.

“Eu não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”.

Da mesma forma, Chalmers diz que não entendemos como a consciência surge no cérebro, muito menos em uma máquina. Ao mesmo tempo, porém, ele acredita que não temos nenhuma razão especial para pensar que as máquinas biológicas possam ser conscientes, mas as máquinas de silício não podem. “Quando entendermos como os cérebros podem ser conscientes, poderemos então entender se outras máquinas podem ser conscientes”, disse ele.

Ben Goertzel, cientista-chefe da Hanson Robotics e fundador da OpenCog Foundation, diz que temos teorias e modelos interessantes de como a consciência surge no cérebro, mas nenhuma teoria geral que abarque todos os aspectos importantes. “Ainda está aberto para diferentes pesquisadores apresentarem algumas diferentes opiniões”, disse Goertzel. “Um ponto é que os cientistas às vezes têm opiniões diferentes sobre a filosofia da consciência, mesmo quando concordam com fatos científicos e teorias sobre todas as características observáveis ​​de cérebros e computadores”.

Como podemos detectar a consciência em uma máquina?

Criar consciência em uma máquina é certamente um problema, detectá-la em um robô ou IA é outro. Cientistas como Alan Turing reconheceram este problema décadas atrás, propondo testes verbais para distinguir um computador de uma pessoa real. O problema é que os chatbots suficientemente avançados já estão enganando as pessoas em pensar que são seres humanos, então vamos precisar de algo consideravelmente mais sofisticado.

“Identificar a personalidade na inteligência das máquinas é complicado pela questão dos ‘zumbis filosóficos’”, disse Hughes. “Em outras palavras, pode ser possível criar máquinas que sejam muito boas em imitar a comunicação e o pensamento humanos, mas que não tenham autoconsciência interna ou consciência”.

Recentemente, vimos um bom e muito divertido exemplo desse fenômeno, quando uma dupla de dispositivos do Google Home eram transmitidos pela Internet durante uma longa conversa entre eles. Embora os dois bots tivessem o mesmo nível de autoconsciência de um tijolo, a natureza das conversas, que às vezes ficavam intensas e aquecidas, parecia ser bastante humana. A capacidade de discernir a IA de seres humanos é um problema que só vai piorar com o tempo.

Uma solução possível, diz Hughes, é rastrear não apenas o comportamento de sistemas artificialmente inteligentes, como o teste de Turing, mas também sua real complexidade interna, como foi proposto pela Teoria da Consciência Integrada da Informação de Giulio Tononi. Ele diz que quando medimos a complexidade matemática de um sistema, podemos gerar uma métrica chamada “phi”. Em teoria, essa medida corresponde a vários limiares de senciência e consciência, nos permitindo detectar sua presença e força. Se Tononi estiver certo, poderíamos usar o phi para garantir que algo não só se comporta como um humano, mas é complexo o suficiente para realmente ter uma experiência consciente interna humana. Da mesma forma, a teoria de Tononi implica que alguns sistemas que não se comportam ou pensam como nós, mas ativam nossas medições de phi de todas as formas corretas, podem na verdade estar conscientes.

“Reconhecendo que a bolsa de valores ou uma rede de computação de defesa podem ser tão conscientes quanto os seres humanos podem ser um bom passo nos afastando do antropocentrismo, mesmo que eles não demonstrem dor ou autoconsciência”, disse Hughes. “Mas isso nos levará a um conjunto realmente pós-humano de questões éticas”.

Outra solução possível é identificar os correlatos neurais da consciência em uma máquina. Em outras palavras, reconhecer as partes de uma máquina que são projetadas para produzir consciência. Se uma IA possui essas partes, e se essas partes estão funcionando conforme o esperado, podemos ficar mais confiantes em nossa capacidade de avaliar a consciência.

Quando os robôs irão merecer direitos humanos?

Que direitos devemos dar às máquinas? Quais máquinas recebem quais direitos?

Um dia, um robô irá olhar para um humano na cara e exigirá direitos humanos – mas isso não significa que ele vai merecê-los. Como observado, pode ser simplesmente um zumbi que está agindo em sua programação, e está tentando nos convencer a receber certos privilégios. Teremos que ter muito cuidado com isso para que não concedamos direitos humanos a máquinas inconscientes. Uma vez que descobrimos como medir o “estado cerebral” de uma máquina e avaliar a consciência e a autoconsciência, só então podemos começar a considerar se esse agente é merecedor de certos direitos e proteções.

Felizmente, este momento provavelmente virá em etapas. No início, os desenvolvedores de AI construirão cérebros básicos, emulando vermes, insetos, ratos, coelhos e assim por diante. Essas emulações baseadas em computador viverão como avatares em ambientes de realidade virtual ou como robôs no mundo analógico real. Quando isso acontecer, essas entidades sencientes irão transcender seu status como meros objetos de investigação e se tornarão sujeitos merecedores de consideração moral. Ora, isso não significa que essas simples emulações sejam merecedoras de direitos equivalentes aos humanos; em vez disso, eles serão protegidos de tal maneira que os pesquisadores e desenvolvedores não serão capazes de abusar deles (semelhante às leis em vigor para evitar o abuso de animais em laboratório, por mais frágeis que muitas dessas proteções possam ser).

Eventualmente, as emulações cerebrais humanas baseadas em computador vão existir, seja modelando o cérebro humano até o mais ínfimo detalhe, ou descobrindo como nossos cérebros funcionam a partir de uma perspectiva computacional e algorítmica. Nesse estágio, devemos ser capazes de detectar a consciência em uma máquina. Pelo menos é o que esperamos. É um pesadelo pensar que poderíamos ativar a consciência artificial em uma máquina e não perceber que o fizemos.

A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Uma vez que essas capacidades básicas tenham sido provadas em um robô ou IA, nosso possível portador de direitos ainda precisa passar no teste de personalidade. Não há consenso sobre os critérios para uma pessoa, mas as medidas padrão incluem um nível mínimo de inteligência, autocontrole, uma noção do passado e do futuro, preocupação com os outros e a capacidade de controlar a própria existência (ou seja, o livre arbítrio). Nesse último ponto, como MacDonald-Glenn explicou ao Gizmodo: “Se suas escolhas foram predeterminadas para você, então você não pode atribuir valor moral a decisões que não são realmente suas”.

É somente atingindo este nível de sofisticação que uma máquina pode realmente ser candidata aos direitos humanos. Importante, no entanto, um robô ou um IA também precisará de outras proteções. Vários anos atrás, eu propus o seguinte conjunto de direitos para as IAs que passaram pelo limiar da personalidade:
O direito de não ser desligado contra a sua vontade
O direito de ter acesso total e irrestrito ao seu próprio código-fonte
O direito de não ter seu próprio código-fonte manipulado contra a sua vontade
O direito de se auto copiar (ou não)
O direito à privacidade (ou seja, o direito de esconder seus próprios estados mentais internos)

Em alguns casos, uma máquina não irá reivindicar seus direitos, então humanos (ou outros cidadãos não humanos), terão de advogar em seu nome. Da mesma forma, é importante ressaltar que uma IA ou robô não precisa ser intelectualmente ou moralmente perfeita para merecer direitos equivalentes aos humanos. Isso se aplica aos humanos, por isso também deve ser aplicado a algumas mentes da máquina. A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Ao mesmo tempo, uma máquina sensível, como qualquer cidadão humano responsável, ainda terá que respeitar as leis estabelecidas pelo Estado e honrar as regras da sociedade. Pelo menos se eles esperam se juntar a nós como seres totalmente autônomos. Em contraste, as crianças e os deficientes intelectuais graves se qualificam para os direitos humanos, mas não os responsabilizamos por suas ações. Dependendo das habilidades de um AI ou robô, ele terá que ser responsável por si mesmo ou, em alguns casos, ser vigiado por um guardião, que terá que suportar o peso da responsabilidade.

E se não o fizermos?

Quando nossas máquinas atingirem um certo limiar de sofisticação, não poderemos mais excluí-las de nossa sociedade, instituições e leis. Não teremos mais bons motivos para negar-lhes os direitos humanos; fazer o contrário seria equivalente à discriminação e à escravidão. Criar uma divisão arbitrária entre seres biológicos e máquinas seria uma expressão do excepcionalismo humano e do chauvinismo – posições ideológicas que afirmam que os seres humanos biológicos são especiais e que apenas as mentes biológicas são importantes.

“Ao considerar se queremos ou não expandir a pessoalidade moral e legal, uma questão importante é ‘que tipo de pessoas queremos ser?’ “, colocou MacDonald-Glenn. “Nós enfatizamos a Regra de Ouro ou enfatizamos ‘quem possui as regras do ouro?’ ”.

Além disso, conceder direitos para as IA criaria um importante precedente. Se respeitarmos as AIs como iguais sociais, seria um longo caminho para assegurar a coesão social e manter um senso de justiça. O fracasso aqui pode resultar em tumulto social e até mesmo uma reação das IA contra os humanos. Dado o potencial da inteligência das máquinas para superar as habilidades humanas, isso seria uma receita para o desastre.

É importante ressaltar que respeitar os direitos dos robôs também poderia servir para proteger outros tipos de pessoas emergentes, como ciborgues, seres humanos transgênicos com DNA estrangeiro e seres humanos que tiveram seus cérebros copiados, digitalizados e carregados em supercomputadores.

Vai demorar um pouco até que desenvolvamos uma máquina que mereça direitos humanos, mas dado o que está em jogo – tanto para robôs artificialmente inteligentes quanto para os humanos – nunca é cedo demais para começar a planejar com antecedência.

https://gizmodo.uol.com.br/quando-os-robos-irao-merecer-direitos-humanos/

Leave A Reply

%d blogueiros gostam disto: