Category Archives: Robótica

Quando os robôs irão merecer direitos humanos?

Filmes e programas de TV como Blade RunnerHumans e Westworld, onde robôs altamente avançados não têm direitos como os humanos, incomodam nossa consciência. Eles nos mostram que nossos comportamentos não são apenas prejudiciais aos robôs – eles também nos rebaixam e nos diminuem enquanto espécie. Nós gostamos de pensar que somos melhores que os personagens na tela, e que quando chegar a hora, faremos a coisa certa e trataremos as máquinas inteligentes com um pouco mais de respeito e dignidade.Quando os robôs irão merecer direitos humanos?

Com cada avanço em robótica e inteligência artificial, estamos nos aproximando do dia em que máquinas sofisticadas combinarão as capacidades humanas em todos os aspectos significativos – inteligência, percepção e emoções. Quando isso acontecer, teremos que decidir se essas entidades são pessoas e se e quando -elas devem receber direitos, liberdades e proteções equivalentes às dos seres humanos.

Conversamos com especialistas em ética, sociólogos, juristas, neurocientistas e teóricos da IA (Inteligência Artificial) ​​com diferentes visões sobre essa ideia complexa e desafiadora. Parece que quando chegar a hora, é improvável que cheguemos a um acordo total. Aqui estão alguns desses argumentos.

Por que dar direitos às IAs em primeiro lugar?

Nós já atribuímos responsabilidade moral a robôs e projetamos consciência neles quando eles parecem super-realistas. Quanto mais inteligentes e vivas nossas máquinas parecem ser, mais queremos acreditar que são como nós – mesmo que ainda não sejam.

Mas, quando nossas máquinas adquirirem um conjunto básico de capacidades semelhantes às humanas, caberá a nós vê-las como iguais sociais e não apenas meras propriedades. O desafio estará em decidir quais limiares cognitivos, ou traços, qualificam uma entidade para consideração moral e, consequentemente, direitos sociais. Filósofos e especialistas em ética estão refletindo sobre essas mesmas questões há literalmente milhares de anos.

“Os três limiares mais importantes da ética são a capacidade de sentir dor, autoconsciência e capacidade de ser um ator moral responsável”, disse o sociólogo e futurista James Hughes, diretor executivo do Instituto de Ética e Tecnologias Emergentes, ao Gizmodo.

“Nos humanos, se tivermos sorte, esses traços se desenvolvem sequencialmente. Mas na inteligência de máquina pode ser possível ter um bom cidadão que não seja autoconsciente ou um robô autoconsciente que não sinta prazer e dor ”, disse Hughes. “Precisamos descobrir se vai funcionar assim”.

É importante ressaltar que a inteligência não é a mesma coisa que a senciência (a capacidade de perceber ou sentir as coisas), a consciência (consciência do corpo e do ambiente) ou a autoconsciência (reconhecimento dessa consciência). Uma máquina ou algoritmo pode ser tão inteligente – se não mais – do que os humanos, mas ainda não possuem essas importantes capacidades. Calculadoras, Siri e algoritmos de negociação de ações são inteligentes, mas não são conscientes de si mesmos, são incapazes de sentir emoções e não podem experimentar sensações de nenhum tipo, como a cor vermelha ou o sabor da pipoca.

“Inteligência não é o mesmo que senciência (a capacidade de perceber ou sentir coisas), consciência (consciência do corpo e ambiente) ou a autoconsciência (reconhecimento dessa consciência).”

Hughes acredita que a autoconsciência vem acompanhada de alguns direitos mínimos de cidadania, como o direito de não ser posse, e ter seus interesses para com a vida, a liberdade e o crescimento respeitados. A capacidade tanto de autoconsciência quanto de capacidade moral (ou seja, saber o certo do errado, pelo menos de acordo com os padrões morais atuais) devem vir acompanhadas de direitos de cidadania iguais aos dos humanos adultos, argumenta Hughes, tais como os direitos de fazer contratos, propriedade, voto, e assim por diante.

“Nossos valores iluministas nos obrigam a olhar para essas características verdadeiramente importantes de portadores de direitos, independentemente das espécies, e colocar de lado as restrições pré-iluministas sobre o porte de direitos apenas para humanos, europeus ou homens”, ele disse. Obviamente, nossa civilização não alcançou os elevados objetivos pró-sociais, e a expansão dos direitos continua um trabalho em progresso.

Quem pode ser uma “pessoa”?

Nem todas as pessoas são seres humanos. Linda MacDonald-Glenn, bioeticista da Universidade Estadual da Califórnia em Monterey Bay e membro do corpo docente do Alden March Bioethics Institute no Albany Medical Center, diz que a lei já considera não humanos como indivíduos portadores de direitos. Este é um desenvolvimento significativo, porque já estamos estabelecendo precedentes que poderiam abrir caminho para a concessão de direitos equivalentes aos dos humanos para a IA no futuro.

“Por exemplo, nos Estados Unidos, as corporações são reconhecidas como pessoas jurídicas”, ela disse ao Gizmodo. “Além disso, outros países estão reconhecendo a natureza interconectada da existência nesta Terra: a Nova Zelândia recentemente reconheceu os animais como seres sencientes, exigindo o desenvolvimento e a emissão de códigos de bem-estar e conduta ética, e o Supremo Tribunal da Índia declarou recentemente que os rios Ganges e Yamuna são pessoas jurídicas que possuem os direitos e deveres de indivíduos”.

Também existem esforços tanto nos Estados Unidos quanto em outros lugares para garantir direitos pessoais a certos animais não-humanos, como grandes símios, elefantes, baleias e golfinhos, para protegê-los contra coisas como confinamento indevido, experimentos e abusos. Ao contrário dos esforços para reconhecer legalmente corporações e rios como pessoas, isso não é uma espécie de gambiarra legal. Os proponentes dessas propostas estão defendendo uma noção de personalidade para essas entidades de acordo com certas habilidades cognitivas que elas possuem, como a autoconsciência.

MacDonald-Glenn diz que é importante rejeitar o sentimento da velha escola que enfatiza a racionalidade humana, por meio do qual os animais, e por extensão lógica os robôs e a inteligência artificial, são simplesmente vistos como “máquinas sem alma”. Ela argumenta que as emoções não são um luxo, mas um componente essencial do pensamento racional e do comportamento social normal. São todas essas características, e não apenas a capacidade de processar números, que importam ao decidir quem ou o que é merecedor de consideração moral.

De fato, o corpo de evidências científicas mostrando as capacidades emocionais dos animais está aumentando constantemente. O trabalho com golfinhos e baleias sugere que eles são capazes de vivenciar o luto, enquanto a presença de neurônios-fusiformes (o que facilita a comunicação no cérebro e possibilita comportamentos sociais complexos) implica que eles são capazes de empatia. Os cientistas também documentaram uma ampla gama de capacidades emocionais em grandes macacos e elefantes. Eventualmente, a IA consciente pode estar imbuída de capacidades emocionais semelhantes, o que elevaria seu status moral em uma porção significativa.

“Limitar o status moral somente àqueles que podem pensar racionalmente pode funcionar bem para a IA, mas isso é contrário à intuição moral”, disse MacDonald-Glenn. “Nossa sociedade protege aqueles sem pensamento racional, como um recém-nascido, pessoas em coma, e incapacitados física ou mentalmente, e promulgou leis contra a crueldade animais”. Sobre a questão da concessão do status moral, MacDonald-Glenn recorre ao filósofo inglês Jeremy Bentham, que disse a famosa frase: “A questão não é se eles podem raciocinar nem se eles podem falar mas, eles podem sofrer?”.

A consciência pode surgir em uma máquina?

Mas nem todos concordam que os direitos humanos devem ser estendidos aos não-humanos – mesmo que eles demonstrem capacidades como emoções e comportamentos autoconscientes. Alguns pensadores argumentam que apenas humanos devem poder participar do contrato social, e que o mundo pode ser adequadamente organizado em Homo sapiens e tudo mais – seja “tudo mais” seu videogame, geladeira, cachorro de estimação ou robô de companhia.

O advogado e escritor americano Wesley J. Smith, membro sênior do Centro de Excepcionalismo Humano do Discovery Institute, diz que ainda não alcançamos os direitos humanos universais, e que é extremamente prematuro começar a nos preocupar com os futuros direitos dos robôs.

“Nenhuma máquina deve ser considerada um portador de direitos”, disse Smith ao Gizmodo. “Até a máquina mais sofisticada é apenas uma máquina. Não é um ser vivo. Não é um organismo. É apenas a soma de sua programação, seja feita por um humano, por outro computador ou por auto-programação”.

Smith acredita que apenas seres humanos e feitos humanos devem ser considerados pessoas.

“Temos deveres para com os animais que podem sofrer, mas eles nunca devem ser considerados um ‘alguém’ “, disse ele. Apontando para o conceito de animais como “propriedade senciente”, ele diz que é um identificador válido porque “colocaria um fardo maior em nós para tratar nossa propriedade senciente de maneiras que não lhe seja causado sofrimento indevido, como distinto da propriedade inanimada”.

Implícito na análise de Smith, está a suposição de que os seres humanos, ou organismos biológicos, têm algo que as máquinas nunca serão capazes de alcançar. Em eras anteriores, essa “coisa” era uma alma ou espírito ou algum tipo de força vital indescritível. Conhecida como vitalismo, essa ideia foi amplamente substituída por uma visão funcionalista (computacional) da mente, na qual nossos cérebros são separados de qualquer tipo de fenômeno sobrenatural. No entanto, a ideia de que uma máquina nunca será capaz de pensar ou experimentar a autoconsciência como um humano ainda persiste hoje, mesmo entre os cientistas, refletindo o fato de que nossa compreensão da base biológica da consciência em humanos ainda é muito limitada.

Lori Marino, professora de neurociência e biologia comportamental do Emory Center for Ethics, diz que as máquinas provavelmente nunca merecerão direitos ao nível humano, ou quaisquer direitos. A razão, diz ela, é que alguns neurocientistas, como Antonio Damasio, teorizam que ser senciente tem tudo a ver com se o sistema nervoso é determinado pela presença de canais iônicos dependentes de voltagem, que Marino descreve como o movimento de íons carregados positivamente através da membrana celular dentro de um sistema nervoso.

“Esse tipo de transmissão neural é encontrada nos organismos mais simples, protista e bactérias, e esse é o mesmo mecanismo que evoluiu até os neurônios e, depois, até os sistemas nervosos e, depois, para os cérebros”, disse Marino ao Gizmodo. “Em contraste, os robôs e toda a IA são feitos atualmente pelo fluxo de íons negativos. Dessa forma, todo o mecanismo é diferente”.

De acordo com essa lógica, Marino diz que até mesmo uma água-viva tem mais sensibilidade do que qualquer robô complexo poderia ter.

“Não sei se essa idéia está correta ou não, mas é uma possibilidade intrigante e que merece ser examinada”, disse Marino. “Eu também acho isso intuitivamente atraente porque parece haver algo em ser um ‘organismo vivo’ que é diferente de ser uma máquina realmente complexa. A proteção legal na forma de pessoalidade deve ser claramente fornecida a outros animais antes de qualquer consideração de tais proteções serem aplicadas a objetos, e robôs na minha opinião são objetos”.

David Chalmers, diretor do Centro de Mente, Cérebro e Consciência da Universidade de Nova York, diz que é difícil ter certeza desta teoria, mas ele diz que essas idéias não são especialmente sustentáveis e vão além da evidência.

“Não há muita razão no momento para pensar que o tipo específico de processamento nos canais iônicos seja essencial para a consciência”, disse Chalmers ao Gizmodo. “Mesmo se esse tipo de processamento fosse essencial, não haveria muita razão para pensar que a biologia específica é necessária, em vez da estrutura geral de processamento de informações que encontramos nela. Se [esse for o caso], uma simulação desse processamento em um computador poderia ser consciente”.

Outro cientista que acredita que a consciência é inerentemente não-computacional é Stuart Hameroff, professor de anestesiologia e psicologia na Universidade do Arizona. Ele argumentou que a consciência é uma característica fundamental e irredutível do cosmos (uma idéia conhecida como panpsiquismo). De acordo com essa linha de pensamento, os únicos cérebros capazes de verdadeira subjetividade e introspecção são aqueles compostos de matéria biológica.

A ideia de Hameroff parece interessante, mas também está fora do domínio da opinião científica dominante. É verdade que não sabemos como a sensibilidade e a consciência surgem no cérebro, mas o simples fato é que elas surgem no cérebro, e em virtude desse fato, é um aspecto da cognição que devem aderir às leis de física. É totalmente possível, como notou Marino, que a consciência não possa ser replicada em um fluxo de uns e zeros, mas isso não significa que não iremos eventualmente ultrapassar o paradigma computacional atual, conhecido como arquitetura Von Neumann, ou criar um sistema de IA híbrido no qual a consciência artificial seja produzida em conjunto com componentes biológicos.

Bio-Pod da Existenz

Quando os robôs irão merecer direitos humanos?

Dois Google Homes conversando entre si. Captura de tela via Twitch.

Ed Boyden, um neurocientista do Synthetic Neurobiology Group e professor associado do MIT Media Lab, diz que ainda é prematuro fazer essas perguntas.

“Não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”, disse Boyden ao Gizmodo. “Tecnicamente, você nem sabe se estou consciente, certo? Dessa forma é muito difícil avaliar se uma máquina tem, ou pode ter consciência, no momento atual”.

Boyden não acredita que exista evidência conclusiva de que não podemos replicar a consciência em um substrato alternativo (como um computador), mas admite que há discordância sobre o que é importante capturar em um cérebro emulado. “Podemos precisar de muito mais trabalho para entender o que é fundamental”, ele disse.

“Eu não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”.

Da mesma forma, Chalmers diz que não entendemos como a consciência surge no cérebro, muito menos em uma máquina. Ao mesmo tempo, porém, ele acredita que não temos nenhuma razão especial para pensar que as máquinas biológicas possam ser conscientes, mas as máquinas de silício não podem. “Quando entendermos como os cérebros podem ser conscientes, poderemos então entender se outras máquinas podem ser conscientes”, disse ele.

Ben Goertzel, cientista-chefe da Hanson Robotics e fundador da OpenCog Foundation, diz que temos teorias e modelos interessantes de como a consciência surge no cérebro, mas nenhuma teoria geral que abarque todos os aspectos importantes. “Ainda está aberto para diferentes pesquisadores apresentarem algumas diferentes opiniões”, disse Goertzel. “Um ponto é que os cientistas às vezes têm opiniões diferentes sobre a filosofia da consciência, mesmo quando concordam com fatos científicos e teorias sobre todas as características observáveis ​​de cérebros e computadores”.

Como podemos detectar a consciência em uma máquina?

Criar consciência em uma máquina é certamente um problema, detectá-la em um robô ou IA é outro. Cientistas como Alan Turing reconheceram este problema décadas atrás, propondo testes verbais para distinguir um computador de uma pessoa real. O problema é que os chatbots suficientemente avançados já estão enganando as pessoas em pensar que são seres humanos, então vamos precisar de algo consideravelmente mais sofisticado.

“Identificar a personalidade na inteligência das máquinas é complicado pela questão dos ‘zumbis filosóficos’”, disse Hughes. “Em outras palavras, pode ser possível criar máquinas que sejam muito boas em imitar a comunicação e o pensamento humanos, mas que não tenham autoconsciência interna ou consciência”.

Recentemente, vimos um bom e muito divertido exemplo desse fenômeno, quando uma dupla de dispositivos do Google Home eram transmitidos pela Internet durante uma longa conversa entre eles. Embora os dois bots tivessem o mesmo nível de autoconsciência de um tijolo, a natureza das conversas, que às vezes ficavam intensas e aquecidas, parecia ser bastante humana. A capacidade de discernir a IA de seres humanos é um problema que só vai piorar com o tempo.

Uma solução possível, diz Hughes, é rastrear não apenas o comportamento de sistemas artificialmente inteligentes, como o teste de Turing, mas também sua real complexidade interna, como foi proposto pela Teoria da Consciência Integrada da Informação de Giulio Tononi. Ele diz que quando medimos a complexidade matemática de um sistema, podemos gerar uma métrica chamada “phi”. Em teoria, essa medida corresponde a vários limiares de senciência e consciência, nos permitindo detectar sua presença e força. Se Tononi estiver certo, poderíamos usar o phi para garantir que algo não só se comporta como um humano, mas é complexo o suficiente para realmente ter uma experiência consciente interna humana. Da mesma forma, a teoria de Tononi implica que alguns sistemas que não se comportam ou pensam como nós, mas ativam nossas medições de phi de todas as formas corretas, podem na verdade estar conscientes.

“Reconhecendo que a bolsa de valores ou uma rede de computação de defesa podem ser tão conscientes quanto os seres humanos podem ser um bom passo nos afastando do antropocentrismo, mesmo que eles não demonstrem dor ou autoconsciência”, disse Hughes. “Mas isso nos levará a um conjunto realmente pós-humano de questões éticas”.

Outra solução possível é identificar os correlatos neurais da consciência em uma máquina. Em outras palavras, reconhecer as partes de uma máquina que são projetadas para produzir consciência. Se uma IA possui essas partes, e se essas partes estão funcionando conforme o esperado, podemos ficar mais confiantes em nossa capacidade de avaliar a consciência.

Quando os robôs irão merecer direitos humanos?

Que direitos devemos dar às máquinas? Quais máquinas recebem quais direitos?

Um dia, um robô irá olhar para um humano na cara e exigirá direitos humanos – mas isso não significa que ele vai merecê-los. Como observado, pode ser simplesmente um zumbi que está agindo em sua programação, e está tentando nos convencer a receber certos privilégios. Teremos que ter muito cuidado com isso para que não concedamos direitos humanos a máquinas inconscientes. Uma vez que descobrimos como medir o “estado cerebral” de uma máquina e avaliar a consciência e a autoconsciência, só então podemos começar a considerar se esse agente é merecedor de certos direitos e proteções.

Felizmente, este momento provavelmente virá em etapas. No início, os desenvolvedores de AI construirão cérebros básicos, emulando vermes, insetos, ratos, coelhos e assim por diante. Essas emulações baseadas em computador viverão como avatares em ambientes de realidade virtual ou como robôs no mundo analógico real. Quando isso acontecer, essas entidades sencientes irão transcender seu status como meros objetos de investigação e se tornarão sujeitos merecedores de consideração moral. Ora, isso não significa que essas simples emulações sejam merecedoras de direitos equivalentes aos humanos; em vez disso, eles serão protegidos de tal maneira que os pesquisadores e desenvolvedores não serão capazes de abusar deles (semelhante às leis em vigor para evitar o abuso de animais em laboratório, por mais frágeis que muitas dessas proteções possam ser).

Eventualmente, as emulações cerebrais humanas baseadas em computador vão existir, seja modelando o cérebro humano até o mais ínfimo detalhe, ou descobrindo como nossos cérebros funcionam a partir de uma perspectiva computacional e algorítmica. Nesse estágio, devemos ser capazes de detectar a consciência em uma máquina. Pelo menos é o que esperamos. É um pesadelo pensar que poderíamos ativar a consciência artificial em uma máquina e não perceber que o fizemos.

A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Uma vez que essas capacidades básicas tenham sido provadas em um robô ou IA, nosso possível portador de direitos ainda precisa passar no teste de personalidade. Não há consenso sobre os critérios para uma pessoa, mas as medidas padrão incluem um nível mínimo de inteligência, autocontrole, uma noção do passado e do futuro, preocupação com os outros e a capacidade de controlar a própria existência (ou seja, o livre arbítrio). Nesse último ponto, como MacDonald-Glenn explicou ao Gizmodo: “Se suas escolhas foram predeterminadas para você, então você não pode atribuir valor moral a decisões que não são realmente suas”.

É somente atingindo este nível de sofisticação que uma máquina pode realmente ser candidata aos direitos humanos. Importante, no entanto, um robô ou um IA também precisará de outras proteções. Vários anos atrás, eu propus o seguinte conjunto de direitos para as IAs que passaram pelo limiar da personalidade:
O direito de não ser desligado contra a sua vontade
O direito de ter acesso total e irrestrito ao seu próprio código-fonte
O direito de não ter seu próprio código-fonte manipulado contra a sua vontade
O direito de se auto copiar (ou não)
O direito à privacidade (ou seja, o direito de esconder seus próprios estados mentais internos)

Em alguns casos, uma máquina não irá reivindicar seus direitos, então humanos (ou outros cidadãos não humanos), terão de advogar em seu nome. Da mesma forma, é importante ressaltar que uma IA ou robô não precisa ser intelectualmente ou moralmente perfeita para merecer direitos equivalentes aos humanos. Isso se aplica aos humanos, por isso também deve ser aplicado a algumas mentes da máquina. A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Ao mesmo tempo, uma máquina sensível, como qualquer cidadão humano responsável, ainda terá que respeitar as leis estabelecidas pelo Estado e honrar as regras da sociedade. Pelo menos se eles esperam se juntar a nós como seres totalmente autônomos. Em contraste, as crianças e os deficientes intelectuais graves se qualificam para os direitos humanos, mas não os responsabilizamos por suas ações. Dependendo das habilidades de um AI ou robô, ele terá que ser responsável por si mesmo ou, em alguns casos, ser vigiado por um guardião, que terá que suportar o peso da responsabilidade.

E se não o fizermos?

Quando nossas máquinas atingirem um certo limiar de sofisticação, não poderemos mais excluí-las de nossa sociedade, instituições e leis. Não teremos mais bons motivos para negar-lhes os direitos humanos; fazer o contrário seria equivalente à discriminação e à escravidão. Criar uma divisão arbitrária entre seres biológicos e máquinas seria uma expressão do excepcionalismo humano e do chauvinismo – posições ideológicas que afirmam que os seres humanos biológicos são especiais e que apenas as mentes biológicas são importantes.

“Ao considerar se queremos ou não expandir a pessoalidade moral e legal, uma questão importante é ‘que tipo de pessoas queremos ser?’ “, colocou MacDonald-Glenn. “Nós enfatizamos a Regra de Ouro ou enfatizamos ‘quem possui as regras do ouro?’ ”.

Além disso, conceder direitos para as IA criaria um importante precedente. Se respeitarmos as AIs como iguais sociais, seria um longo caminho para assegurar a coesão social e manter um senso de justiça. O fracasso aqui pode resultar em tumulto social e até mesmo uma reação das IA contra os humanos. Dado o potencial da inteligência das máquinas para superar as habilidades humanas, isso seria uma receita para o desastre.

É importante ressaltar que respeitar os direitos dos robôs também poderia servir para proteger outros tipos de pessoas emergentes, como ciborgues, seres humanos transgênicos com DNA estrangeiro e seres humanos que tiveram seus cérebros copiados, digitalizados e carregados em supercomputadores.

Vai demorar um pouco até que desenvolvamos uma máquina que mereça direitos humanos, mas dado o que está em jogo – tanto para robôs artificialmente inteligentes quanto para os humanos – nunca é cedo demais para começar a planejar com antecedência.

https://gizmodo.uol.com.br/quando-os-robos-irao-merecer-direitos-humanos/

Robô usa reconhecimento facial e acaba com a graça de ‘Onde Está o Wally’

Lançado no final da década de 1980, a série de livros Onde Está O Wally? fez sucesso no Brasil ao desafiar as crianças a localizar o simpático rapaz de camisa listrada entre centenas de elementos desenhados nas páginas. Felizmente, a inteligência artificial daquela época não era tão desenvolvida para estragar a graça da brincadeira: um robô desenvolvido com a tecnologia de reconhecimento facial do Google encontrou o Wally (conhecido nos Estados Unidos como Waldo) em apenas 4,5 segundos.

Máquina desenvolvida com tecnologia do Google localizou o personagem em apenas 4,5 segundos

Conhecido como Redpepper, o programa consegue gravar previamente as imagens que deseja localizar e, ao vasculhar todos os elementos, consegue facilmente identificar sua posição. Bastam uma pequena câmera e o chip Raspberry Pi, capaz de automatizar diferentes programações, para que a máquina funcione com o mecanismo de reconecimento facial.

De acordo com os desenvolvedores da tecnologia, o robô consegue realizar a identificação com 95% de precisão. Equipado com um braço mecânico, ele aponta rapidamente a localização de Wally.

Veja como a máquina funciona nesse vídeo:

Antes de ser testado, a máquina memorizou mais de 100 desenhos diferentes do Wally, disponíveis no Google. O aprendizado foi o bastante para que o robô conseguisse fazer a identificação dos elementos nas diferentes páginas apresentadas.

Robô usa reconhecimento facial e acaba com a graça de ‘Onde Está o Wally’

Em 2015, o cientista da computação Randal Olson publicou uma base de dados que reúne as informações a respeito da localização de Wally em 68 desenhos diferentes. De acordo com o estudo, o personagem de camisa listrada quase nunca aparece no canto superior esquerdo, provavelmente porque ali costuma ter um cartão postal ou algo parecido.

As bordas também raramente são um esconderijo, pois são lugares mais óbvios pelos quais as pessoas começam sua busca – especialmente a borda inferior do canto direito, que é o primeiro lugar que se vê ao virar a página. Wally nunca se esconde ali.

Robô usa reconhecimento facial e acaba com a graça de 'Onde Está o Wally'

Máquina desenvolvida com tecnologia do Google localizou o personagem em apenas 4,5 segundos

Criado pelo ilustrador britânico Martin Handford, Onde Está o Wally já foi traduzido para diferentes línguas — no Brasil, foram publicados diferentes livros com temáticas como a história, o universo cinematográfico e paisagens de diferentes lugares do planeta.

fonte: https://revistagalileu.globo.com/Tecnologia/noticia/2018/08/robo-usa-reconhecimento-facial-e-acaba-com-graca-de-onde-esta-o-wally.html

Google Duplex: entenda como o sistema de ligações por IA funciona

Google Duplex: entenda como o sistema de ligações por IA funciona

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google anunciou, durante o I/O 2018, a nova habilidade de sua assistente virtual: falar pelo telefone com seres humanos. Por meio de uma tecnologia chamada Duplex, a Google Assistente, em breve, será capaz de resolver pequenas tarefas do “mundo real” que exigem uma ligação.

O recurso, que mostra um passo largo no campo de inteligência artifical, promete facilitar a vida do usuário ao marcar compromissos, como uma hora no salão de beleza ou uma reserva em um restaurante. A tecnologia pode ser uma vantagem para pequenos negócios que não possuem um site ou sistema online de reservas.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google Assistente será capaz de realizar ligações sem interferência humana (Foto: Ana Marques/TechTudo)

Segundo a empresa, o Google Duplex não consegue participar de qualquer conversa, mas está focado em realizar tarefas específicas pelo telefone de maneira muito natural. O sistema vai permitir que a pessoa do outro lado da linha fale normalmente, sem precisar se adaptar à máquina – como muitas vezes fazemos ao dar comandos de voz.

A complexidade da linguagem humana

Para atingir naturalidade e conforto nos diálogos, durante seu desenvolvimento, o Duplex foi explorado profundamente dentro de domínios fechados. De qualquer forma, a fala humana não tem nada de simples. Quando uma pessoa conversa com outra, ela fala rápido, se corrige no meio da frase, é prolixa, omite palavras confiando no contexto para entendimento e expressa intenções diversas dentro da mesma frase. No telefone, ainda há problemas com o som de fundo e a qualidade do áudio.

Por exemplo, ao ser questionado sobre os horários de um estabelecimento, um funcionário diz: “Então… ééé… de terça a quinta, a gente abre das onze da manhã até as duas da tarde, e depois reabre das quatro às nove. E aí na sexta, sábado, domingo… não, sexta e sábado abrimos de onze até nove e domingo de uma até nove horas.”

Google Assistente terá autonomia para marcar compromissos (Foto: Reprodução/TechTudo)

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

A inteligência artificial tem muitos desafios: entender a linguagem humana, imitar o comportamento natural, processar com rapidez as expectativas de tempo das respostas e gerar falas orgânicas, com as entonações certas. O Google promete grandes avanços em tudo isso.

Como o Duplex funciona

No cerne da tecnologia do Duplex, para lidar com esses desafios, está uma rede neural recorrente (RNN, na sigla em inglês) construída usando TensorFlow Estendido (TFX). A RNN é uma classe de rede neural artificial capaz de usar sua memória para processar uma sequência de dados fornecidos e agir dinamicamente ao longo de um período de tempo. O TFX é uma plataforma de propósitos amplos baseada no TensorFlow, estrutura de aprendizado de máquina – ou “machine learning” – de código aberto.

A rede neural do Duplex foi treinada com um banco de conversas telefônicas anônimas. Ela utiliza o resultado da tecnologia de reconhecimento automático de fala (ASR) do Google, bem como recursos do áudio, o histórico da conversa e seus parâmetros (como o serviço desejado para um compromisso ou a hora atual).

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Para controlar a entonação da fala de acordo com a circunstância, é empregada uma combinação de dois mecanismos de conversão de texto para fala (TTS), um concatenativo e outro sintético. A adição de disfluências da linguagem oral, como “hummm” e “ééé”, também ajuda o resultado final a soar mais familiar e realista.

Outro ponto importante é atender às expectativas das pessoas quanto ao tempo de reação, o que varia de situação para situação. Se você diz “alô”, vai esperar do interlocutor uma resposta instantânea, pois não tem muito o que pensar. Nesse caso, o Duplex recorre a processos de menor confiança, mas mais rápidos. Enquanto isso, em certos cenários, como ao responder a frases longas e complexas, a IA aumenta o tempo de resposta.

O Google Duplex executa diálogos sofistificados de forma totalmente autônoma, mas também sabe reconhecer quando uma tarefa mais complicada está fora do seu alcance. Quando isso acontece, o sistema repassa a solicitação para um operador humano, que vai completar a tarefa. E para treinar o software em novas áreas de atuação, instrutores experientes o supervisionam trabalhando em tempo real. Conforme necessário, eles guiam os procedimentos e assim a IA vai aprendendo.

A nova tecnologia incorporada à assistente do Google vai permitir, inclusive, que o usuário faça um pedido a qualquer momento, mesmo que sua conexão esteja ruim ou que o lugar esteja fechado. Assim que for possível, o Duplex ligará para realizar a tarefa. A ferramenta pode também beneficiar pessoas com deficiência auditiva e viajantes que não falam a língua local.

Além disso, as ligações realizadas vão ajudar a tornar algumas informações acessíveis a todos, pela internet. Quando a IA ligar para saber os horários de funcionamento de um restaurante nos feriados, por exemplo, esse dado ficará disponível online.

Assistente ajuda usuário com tarefas do cotidiano (Foto: Divulgação/Google)

Google Duplex: entenda como o sistema de ligações por IA funciona

Questões éticas

O anúncio do Google Duplex foi recebido com muita surpresa e empolgação pela mídia e pelo público, mas alguns levantaram preocupações com a ética do recurso. Nas ligações de teste apresentadas no evento do Google, os atendentes parecem nem desconfiar que estão falando com um robô. Críticos da tecnologia questionaram todo esse realismo e a possibilidade de enganar um ser humano.

A companhia, porém, afirma que a assistente virtual vai se identificar durante as conversas, deixando claro que se trata de uma inteligência artificial fazendo a ligação. O Duplex ainda está em fase de testes e não há previsão de quando os usuários terão acesso.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em todas as áreas do conhecimento há uma separação entre quem é da área e quem é de fora, com percepções diferentes da realidade. A parte de inteligência artificial talvez seja a que mais gere uma percepção totalmente fora da realidade, com pessoas de fora achando que estamos a dois ou três updates do Chrome de criar a Skynet, e que robôs como o Atlas da Boston Dynamics estão prestes a quebrar seus grilhões e dominar o mundo.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Isso explica a reação geral a uma bobagem peça artística de Alexander Reben, um daqueles artistas modernos que diferem de acumuladores por de vez em quando se livrarem de parte de sua coleção por preços exorbitantes. Ele construiu uma trapizonga onde dá um comando de voz para o Assistente do Google, o equipamento reconhece o comando, aciona um solenóide, dispara uma arma de airsoft e mata uma maçã. Eis o vídeo:

Note que ele usou uma daquelas tomadas inteligentes e nem se preocupou em acionar momentaneamente o gatilho, depois do disparo o solenóide continua ativado, mas isso não importa.

O artista diz que usou peças que tinha jogadas pelo seu estúdio (não falei?) e que

“Parte da mensagem para mim inclui as consequências não-planejadas da tecnologia e a futilidade de considerar cada caso de uso”

Ele se apressou em explicar que usou uma arma mas o equipamento poderia perfeitamente acionar uma cadeira de massagem ou uma máquina de sorvete.

A discussão, nos comentários e em outros sites enveredou sobre quem seria responsável se a arma fosse de verdade e estivesse apontada para um humano. A rigor a culpa é óbvia, ele comandou o disparo, mas e se fosse algo aleatório, que a própria máquina decide?

O pessoal que faz campanha contra drones em geral não entende a tecnologia, acham que há autonomia ali, mas não reclamam de um avião convencional com um piloto. Na verdade os “drones” são aviões de controle-remoto glorificados, ao invés de um piloto estressado com medo de um talibã em seu dia de sorte com um míssil Igla, temos dois sujeitos num escritório refrigerado em Nevada, tomando refrigerante e selecionando os alvos com calma, sem stress.

Claro, de vez em quando eles se confundem e bombardeiam um casamento árabe mas quer saber? Nem dá pra culpar.

Drones no futuro terão autonomia? provavelmente, mas eu vou contar um segredo: Já era. Esse barco já partiu. Já temos máquinas que matam pra gente sem NENHUMA preocupação ética. O pesadelo dos luditas, máquinas assassinas que se rebelam e se tornam uma ameaça a todos os humanos foram criadas na China, no Século III provavelmente ou no X com mais certeza, foram as antepassadas dessas belezinhas aqui:

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

 

 

Minas terrestres continuam a matar décadas depois que os conflitos para os quais foram instaladas já foram esquecidos. Assim como foram as 73500 vítimas civis entre 1999 e 2009, gente de países pobres, crianças brincando ou indo pra escola, agricultores tentando tirar seu sustento da terra. Só no Vietnã a área interditada daria pra alimentar 12 mil famílias.

Aí vem um playboy de Internet dizer que medo mesmo tem de um robô com um software cheio de salvaguardas pra garantir que só acertará os caras maus?

Ah sim existe outra máquina que mata indiscriminadamente, sem intervenção humana: Arame farpado.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em um mundo lindo e fofinho não precisaríamos matar ninguém, viveríamos em paz, de mãos dadas cantando Kumbaya, mas no mundo real todo mundo precisa se defender, e a tecnologia está cada vez mais eficiente. Ter medo dos avanços é crueldade, é dizer que você prefere mortes indiscriminadas. Hoje pulveriza-se um prédio enquanto as casas em volta no máximo perdem algumas janelas. Para conseguir os resultados do último grande ataque à Síria na Segunda Guerra seria preciso destruir a cidade inteira. Dessa vez foram 3 ou 4 prédios e zero vítimas civis.

Inteligência Artificial, sistemas especialistas, machine learning, têm se mostrado melhores do que humanos em um monte de tarefas, incluindo diagnosticar câncer de pele. Por quê o medo de usar a mesma tecnologia pra diferenciar amigos de inimigos? As chances de fogo amigo ou mortes de inocentes cairão bastante.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Exceto se a IA for desenvolvida pelas Indústrias Hammer.

A questão da responsabilidade? Isso foi decidido séculos atrás, se um escravo causa danos ou mata alguém, a responsabilidade é de seu dono, e as máquinas são (por enquanto) nossas escravas, vide a etimologia do termo “robô”.

Quando e SE robôs se tornarem sencientes, quando e SE robôs ganharam status legal de indivíduos, de novo o problema estará resolvido, a responsabilidade será deles. Só que aí eles decidirão se querem participar de nossas guerras ou não.

Robô Curiosity, da Nasa, completa 2 mil dias caminhando na superfície de Marte

Cientistas que participaram da missão de exploração de Marte dizem quais são suas imagens favoritas do planeta vermelho, e explicam o porquê.

Um ciclo completo do MRO em torno do planeta vermelho determina um “dia marciano”, chamado pelos pesquisadores de “sol”.

A primeira imagem enviada pela Rover é uma fotografia granulada, feita pela câmera Front Hazard, do local conhecido como monte Sharp. Esta câmera geralmente é usada pelos controladores do aparelho para evitar obstáculos nos deslocamentos.

Robô Curiosity, da Nasa, completa 2 mil dias caminhando na superfície de Marte

Cientistas que participaram da missão de exploração de Marte dizem quais são suas imagens favoritas do planeta vermelho, e explicam o porquê.

Seixos de rio: Quando começamos a dirigir, cerca de 16 “sóis” depois da aterrissagem, logo nos deparamos com esses “seixos” no terreno. O formato arredondado dessas pedras sugeriam que elas tinham se formado em um antigo riacho, que corria de um terreno elevado para o local conhecido como cratera Gale. A imagem capturada pela Mastcam mostra essas crateras em close.

Ao contrário do que esperávamos antes do pouso do Curiosity, a imagem não mostrava pedras de basalto primitivo e escuro, e sim uma formação rochosa mais variada e complexa. Os seixos desse antigo rio marciano nos fizeram repensar o que acreditávamos sobre o processo de formação geológica de Marte.

Local chamado Baía de Yellowknife é formado por camadas de areia fina e lama seca (Foto: NASA/JPL-CALTECH)

Cientistas que participaram da missão de exploração de Marte dizem quais são suas imagens favoritas do planeta vermelho, e explicam o porquê.

Lago ancestral: Antes da aterrissagem e nos primeiros momentos da missão, nossa equipe não tinha certeza sobre o que eram os terrenos identificados nas fotos de satélite feitas pelo MRO. Algumas áreas poderiam tanto ser fluxos de lava vulcânica quanto sedimentos acumulados no leito de lagos secos.

Sem imagens feitas do solo, era impossível saber com certeza. Esta imagem resolveu a questão e representou um avanço para a exploração de Marte.

Descobrimos, assim, que o local chamado Baía de Yellowknife é formado por camadas de areia fina e lama seca, que foram depositadas ali por rios que corriam para um lago formado na Cratera Gale. Extraímos as primeiras 16 amostras de solo do local no “dia marciano” de número 182 – fizemos isso para levar o solo e as rochas até os espectômetros que estão dentro do robô. Os resultados, que incluíam argila, material orgânico e compostos que continham nitrogênio, mostraram que aquele local já habitável para vida microbiana. A pergunta seguinte – já houve vida em Marte? – continua sem resposta.

Aparelho encontrou rochas formadas por sedimentos de lama (Foto: NASA/JPL-CALTECH/MSSS)

Aparelho encontrou rochas formadas por sedimentos de lama (Foto: NASA/JPL-CALTECH/MSSS)

Águas profundas: O Curiosity chegou às colinas Pahrump no “dia marciano” de número 753. O que encontramos lá foi fundamental para explicar o passado da Cratera Gale. O aparelho encontrou rochas formadas por sedimentos de lama, criadas quando esse material se decantou lentamente no fundo do lago.

Ou seja: o lago da Cratera Gale foi um corpo d’água perene, que existiu durante bastante tempo, e era bastante profundo.

Cientistas que participaram da missão de exploração de Marte dizem quais são suas imagens favoritas do planeta vermelho, e explicam o porquê.

Robô também encontrou grossa formação de arenito (Foto: NASA/JPL-CALTECH/MSSS)

Uma inconformidade: No local conhecido como Monte Stimson, o Curiosity encontrou uma grossa formação de arenito (rocha formada por areia) na borda do lago seco, separada deste pela formação geológica chamada “inconformidade”.

Apocalipse robótico está a décadas de distância, diz ex-CEO da Google

Com medo do apocalipse robótico que podemos sofrer em um futuro próximo quando a Skynet despertar? Pode ficar tranquilo porque, se depender do ex-CEO da Google, esse cenário não deve acontecer tão cedo. Falando na Munich Security Conference, Eric Schmidt disse que nossas preocupações só devem começar daqui a dez ou vinte anos.

Apocalipse robótico está a décadas de distância, diz ex-CEO da Google

“Todo o mundo imediatamente então quer falar sobre todos os cenários de morte inspirados nos filmes, e eu posso confiantemente prever para vocês que eles estão a uma ou duas décadas de distância”, começou Schmidt. “Então não vamos nos preocupar com eles, mas vamos nos preocupar com eles daqui a algum tempo”, continuou com mais bom humor, segundo o DefenseNews.

Vocês têm assistido filmes demais. Deixe-me ser claro: humanos vão continuar no comando da IA pelo resto dos tempos

Ainda sobre esse cenário, Schmidt deixa claro que, para ele, esse é um cenário improvável, embora certamente não impossível. O motivo para tão poucas preocupações? Basicamente, ele acha que a IA pode ajudar a nos tornar mais inteligentes, mas não acredita que os robôs devem ser colocados na posição de tomar decisões de vida ou morte, justamente por serem incapazes de se adaptar às situações ou improvisar.

“O outro ponto que eu quero relembrar a todos é que essas tecnologias têm sérios erros nelas, e eles não devem ser usados em decisões de vida ou morte. Então eu não gostaria de estar em um avião em que o computador estava fazendo todas as decisões inteligentes em geral sobre fazê-lo voar. A tecnologia apenas não é confiável o suficiente – há muitos erros em seu uso. Ela é consultiva, ela faz você mais inteligente e assim por diante, mas eu não a encarregaria de comandar e controlar.”

Se mesmo isso não foi suficiente para convencê-lo, a moral da história deixada por Schmidt é simples. “Vocês têm assistido filmes demais. Deixe-me ser claro: humanos vão continuar no comando da [IA] pelo resto dos tempos.” Por dentro da IA: Inteligência artificial vence 20 advogados em teste de revisão de contratos. 

Sophia já consegue andar: conheça a robô que está aprendendo a ser “humana

Em um de seus primeiros vídeos, ela se apresenta com um timbre de voz gelado. “Oi, aqui é Sophia. Não sei bem o que realmente significa ser humana. Acho que vai levar algum tempo para entender todos vocês. Talvez vocês me ensinem como ser humana ao longo do caminho”.

Sophia já consegue andar: conheça a robô que está aprendendo a ser "humana"

Sophia já consegue andar: conheça a robô que está aprendendo a ser “humana”

Esse foi um dos vislumbres da robô Sophia, que “nasceu” (digo, foi ativada) em 19 de abril de 2015, segundo a empresa criadora, a Hanson Robotics. Seu último avanço ocorreu nesta segunda (8) na feira de tecnologia CES, em Las Vegas, quando ganhou pernas e andou pela primeira vez – antes só se movia com rodinhas.

Sophia é considerada a melhor robô de interações pessoais da atualidade. Ela é dotada de um rosto sintético inspirado na atriz Audrey Hepburn (de “Bonequinha de Luxo”) e na esposa de seu criador, David Hanson, presidente da companhia que leva seu nome. Também possui a tecnologia chamada de aprendizado de máquina, que faz com que ela “fique mais inteligente” ao vivenciar experiências.

O rosto de Sophia é capaz de pelo menos 62 expressões faciais e de pescoço. Ela tem câmeras nos olhos para conseguir “ler” as reações faciais dos interlocutores para que isso a ajude a falar e se expressar melhor. A careca Sophia expõe seu cérebro eletrônico no crânio com um material transparente.

Esse cérebro contém três configurações: uma plataforma de pesquisa em inteligência artificial, que responde perguntas simples como “A porta está aberta ou fechada?”; um programa robô que recita frases pré-carregadas; e um “chatbot” que “olha” para as pessoas, ouve o que eles dizem e escolhe uma resposta apropriada, além de dar dados da internet de interesse geral, como o preço do bitcoin.

Sophia pop star

Sophia vem sendo alvo de muita atenção da mídia nesses dois anos de vida. Em poucos meses ela ganhou cidadania na Arábia Saudita, discursou na ONU, fez gracinhas em um dos talk shows mais famosos dos EUA e disse que quer destruir a humanidade mas também ter uma família. Em meio a tudo isso, causou algumas polêmicas também.

 Em um de seus primeiros vídeos, ela se apresenta com um timbre de voz gelado. "Oi, aqui é Sophia. Não sei bem o que realmente significa ser humana. Acho que vai levar algum tempo para entender todos vocês. Talvez vocês me ensinem como ser humana ao longo do caminho".

Em um de seus primeiros vídeos, ela se apresenta com um timbre de voz gelado. “Oi, aqui é Sophia. Não sei bem o que realmente significa ser humana. Acho que vai levar algum tempo para entender todos vocês. Talvez vocês me ensinem como ser humana ao longo do caminho”.

Robô Sophia em sua primeira aparição no festival South by Southwest, Austin, em 2016, ao lado de seu criador, David Hanson

Vem aí um Einstein e “Blade Runner”

A trajetória de Sophia se confunde com a da Hanson Robotics, companhia criada em 2013 em Hong Kong e que tem como fundador o americano David Hanson, ex-funcionário de animatrônicos –robôs de parques temáticos– da Disney e um dos maiores entusiastas da robótica da atualidade.

Desde 2005 ele trabalha em pelo menos outros oito robôs, incluindo versões com os rostos artificiais do físico Albert Einstein e do escritor Philip K. Dick. Esse último é autor do livro de ficção científica que inspirou o filme “Blade Runner”, que, veja só, fala em humanos artificiais trabalhando –e se rebelando– contra os humanos.

Mas como temos visto, Sophia é a menina dos olhos da Hanson. Na visão dele, o objetivo da robô é ajudar crianças e idosos em cuidados de saúde, educação e serviços de atendimento ao consumidor. Isso, claro, quando ela estiver pronta, pois seu “pai” ainda pensa nela como um bebê em constante aprendizado.

“É parte máquina, parte criança, ainda que tenha todas essas capacidades cognitivas e o vocabulário de um adulto”

Hanson à CNET

Sophia já consegue andar: conheça a robô que está aprendendo a ser "humana"

Sophia já consegue andar: conheça a robô que está aprendendo a ser “humana”

Sophia “sorri” no evento Further Future, em Las Vegas, em 2016

Afinal, é a robô mais evoluída?

Existem duas grandes polêmicas envolvendo a robô favorita do mundo atualmente. A primeira é se ela é realmente o robô mais perfeito já criado para a interação humana, como dão a entender. A segunda é se não estamos dando atenção demais a isso, dando a Sophia direitos que nem certos humanos conquistaram ainda.

As aparições públicas de Sophia dividem opiniões; muitos acham espantosa a sua capacidade de ter um mínimo de conversação com adultos e falar sobre diversos temas, mas outros apontam que a robô tem muitas limitações que vem sendo maquiadas pelo estilo marqueteiro da Hanson Robotics.

Sophia já discursou ou conversou com muitas pessoas em diversas ocasiões, mas ela normalmente traz muitas respostas prontas e poucas interações mais desafiadoras, além de sempre ser solicitada a contar piadas bobas, como se precisasse seguir um roteiro.

Na entrevista à “Elle”, por exemplo, a editora disse que em alguns momentos recebeu “respostas nonsense”, falando sozinha ou sem dizer nada. Ela ainda quis perguntar sobre Donald Trump, mas foi alertada “para não entrar em assuntos políticos” (religião e sexo também são assuntos proibidos).

Ela também já foi criticada por sua inteligência artificial limitada e por suas expressões faciais meio esquisitas e artificiais.

Sophia em uma festa estranha com gente esquisita

Sophia já consegue andar: conheça a robô que está aprendendo a ser "humana"

Sophia já consegue andar: conheça a robô que está aprendendo a ser “humana”

“Sua aparência ainda não é tão convincente. Diria que ela está no “vale da estranheza'”, diz o professor de robótica do ICMC-USP Fernando Osório, referindo-se à teoria que diz que robôs que se comportam de forma muito parecida, mas não idêntica, aos seres humanos causam repulsa.

Até mesmo Ben Goertzel, cientista-chefe da Hanson Robotics, admite que o sistema de Sophia é bem parecido ao que vemos há anos na assistente pessoal da Apple, a Siri e que não acha “ideal” o entendimento geral que ela possui AGI, isto é, inteligência geral artificial (o termo da indústria equivalente à inteligência humana).

Outro tema polêmico, mas na seara mais política, foi quando a robô ganhou cidadania saudita, sendo a primeira do gênero a alcançar tal feito. Nas redes sociais, foi levantado o fato de que, assim, ela ganhou mais direitos que as mulheres no país, considerado um dos Estados mais opressivos do mundo para as mulheres.

Ainda há também controvérsias se é sequer o robô pessoal mais avançado da atualidade. Afinal, há bons concorrentes por aí, como o Asimo da Honda, que tem mais de 15 anos de estrada e os da LG que interagem com passageiros de aeroportos; Fora os que malham, que dão saltos mortais, e robôs assistentes como Jibo e Kuri.

“O Asimo não tem desenvoltura nem expressão facial, mas pode receber a ordem de várias pessoas e saber qual pessoa está falando com ele pela percepção de áudio” 

Adam Henrique Pinto, membro do grupo de pesquisa e competição em robótica Warthog

Mas a questão que perdura é: queremos mesmo que Sophia, ou qualquer outro robô, seja tão perfeita assim?

O criador David Hanson diz que acredita no dia que robôs serão indistinguíveis de humanos, mas prefere que eles tenham aparência próxima, mas não igual, à humana. E nomes como Stephen Hawking e Elon Musk já se opõem a robôs definitivos, o que gerou até uma resposta jocosa de Sophia (ver arte abaixo).

“Não vamos chegar ao ponto de sermos dominados. Os robôs existem para nos ajudar e a inteligência artificial existe para facilitar a nossa vida. E a robótica não é mais uma área isolada da tecnologia. Ela está caminhando com as ciências humanas e levando em conta fatores éticos em seu desenvolvimento”, defende o doutorando em robótica do ICMC-USP Daniel Todazore.