Category Archives: Informatica

Quando os robôs irão merecer direitos humanos?

Filmes e programas de TV como Blade RunnerHumans e Westworld, onde robôs altamente avançados não têm direitos como os humanos, incomodam nossa consciência. Eles nos mostram que nossos comportamentos não são apenas prejudiciais aos robôs – eles também nos rebaixam e nos diminuem enquanto espécie. Nós gostamos de pensar que somos melhores que os personagens na tela, e que quando chegar a hora, faremos a coisa certa e trataremos as máquinas inteligentes com um pouco mais de respeito e dignidade.Quando os robôs irão merecer direitos humanos?

Com cada avanço em robótica e inteligência artificial, estamos nos aproximando do dia em que máquinas sofisticadas combinarão as capacidades humanas em todos os aspectos significativos – inteligência, percepção e emoções. Quando isso acontecer, teremos que decidir se essas entidades são pessoas e se e quando -elas devem receber direitos, liberdades e proteções equivalentes às dos seres humanos.

Conversamos com especialistas em ética, sociólogos, juristas, neurocientistas e teóricos da IA (Inteligência Artificial) ​​com diferentes visões sobre essa ideia complexa e desafiadora. Parece que quando chegar a hora, é improvável que cheguemos a um acordo total. Aqui estão alguns desses argumentos.

Por que dar direitos às IAs em primeiro lugar?

Nós já atribuímos responsabilidade moral a robôs e projetamos consciência neles quando eles parecem super-realistas. Quanto mais inteligentes e vivas nossas máquinas parecem ser, mais queremos acreditar que são como nós – mesmo que ainda não sejam.

Mas, quando nossas máquinas adquirirem um conjunto básico de capacidades semelhantes às humanas, caberá a nós vê-las como iguais sociais e não apenas meras propriedades. O desafio estará em decidir quais limiares cognitivos, ou traços, qualificam uma entidade para consideração moral e, consequentemente, direitos sociais. Filósofos e especialistas em ética estão refletindo sobre essas mesmas questões há literalmente milhares de anos.

“Os três limiares mais importantes da ética são a capacidade de sentir dor, autoconsciência e capacidade de ser um ator moral responsável”, disse o sociólogo e futurista James Hughes, diretor executivo do Instituto de Ética e Tecnologias Emergentes, ao Gizmodo.

“Nos humanos, se tivermos sorte, esses traços se desenvolvem sequencialmente. Mas na inteligência de máquina pode ser possível ter um bom cidadão que não seja autoconsciente ou um robô autoconsciente que não sinta prazer e dor ”, disse Hughes. “Precisamos descobrir se vai funcionar assim”.

É importante ressaltar que a inteligência não é a mesma coisa que a senciência (a capacidade de perceber ou sentir as coisas), a consciência (consciência do corpo e do ambiente) ou a autoconsciência (reconhecimento dessa consciência). Uma máquina ou algoritmo pode ser tão inteligente – se não mais – do que os humanos, mas ainda não possuem essas importantes capacidades. Calculadoras, Siri e algoritmos de negociação de ações são inteligentes, mas não são conscientes de si mesmos, são incapazes de sentir emoções e não podem experimentar sensações de nenhum tipo, como a cor vermelha ou o sabor da pipoca.

“Inteligência não é o mesmo que senciência (a capacidade de perceber ou sentir coisas), consciência (consciência do corpo e ambiente) ou a autoconsciência (reconhecimento dessa consciência).”

Hughes acredita que a autoconsciência vem acompanhada de alguns direitos mínimos de cidadania, como o direito de não ser posse, e ter seus interesses para com a vida, a liberdade e o crescimento respeitados. A capacidade tanto de autoconsciência quanto de capacidade moral (ou seja, saber o certo do errado, pelo menos de acordo com os padrões morais atuais) devem vir acompanhadas de direitos de cidadania iguais aos dos humanos adultos, argumenta Hughes, tais como os direitos de fazer contratos, propriedade, voto, e assim por diante.

“Nossos valores iluministas nos obrigam a olhar para essas características verdadeiramente importantes de portadores de direitos, independentemente das espécies, e colocar de lado as restrições pré-iluministas sobre o porte de direitos apenas para humanos, europeus ou homens”, ele disse. Obviamente, nossa civilização não alcançou os elevados objetivos pró-sociais, e a expansão dos direitos continua um trabalho em progresso.

Quem pode ser uma “pessoa”?

Nem todas as pessoas são seres humanos. Linda MacDonald-Glenn, bioeticista da Universidade Estadual da Califórnia em Monterey Bay e membro do corpo docente do Alden March Bioethics Institute no Albany Medical Center, diz que a lei já considera não humanos como indivíduos portadores de direitos. Este é um desenvolvimento significativo, porque já estamos estabelecendo precedentes que poderiam abrir caminho para a concessão de direitos equivalentes aos dos humanos para a IA no futuro.

“Por exemplo, nos Estados Unidos, as corporações são reconhecidas como pessoas jurídicas”, ela disse ao Gizmodo. “Além disso, outros países estão reconhecendo a natureza interconectada da existência nesta Terra: a Nova Zelândia recentemente reconheceu os animais como seres sencientes, exigindo o desenvolvimento e a emissão de códigos de bem-estar e conduta ética, e o Supremo Tribunal da Índia declarou recentemente que os rios Ganges e Yamuna são pessoas jurídicas que possuem os direitos e deveres de indivíduos”.

Também existem esforços tanto nos Estados Unidos quanto em outros lugares para garantir direitos pessoais a certos animais não-humanos, como grandes símios, elefantes, baleias e golfinhos, para protegê-los contra coisas como confinamento indevido, experimentos e abusos. Ao contrário dos esforços para reconhecer legalmente corporações e rios como pessoas, isso não é uma espécie de gambiarra legal. Os proponentes dessas propostas estão defendendo uma noção de personalidade para essas entidades de acordo com certas habilidades cognitivas que elas possuem, como a autoconsciência.

MacDonald-Glenn diz que é importante rejeitar o sentimento da velha escola que enfatiza a racionalidade humana, por meio do qual os animais, e por extensão lógica os robôs e a inteligência artificial, são simplesmente vistos como “máquinas sem alma”. Ela argumenta que as emoções não são um luxo, mas um componente essencial do pensamento racional e do comportamento social normal. São todas essas características, e não apenas a capacidade de processar números, que importam ao decidir quem ou o que é merecedor de consideração moral.

De fato, o corpo de evidências científicas mostrando as capacidades emocionais dos animais está aumentando constantemente. O trabalho com golfinhos e baleias sugere que eles são capazes de vivenciar o luto, enquanto a presença de neurônios-fusiformes (o que facilita a comunicação no cérebro e possibilita comportamentos sociais complexos) implica que eles são capazes de empatia. Os cientistas também documentaram uma ampla gama de capacidades emocionais em grandes macacos e elefantes. Eventualmente, a IA consciente pode estar imbuída de capacidades emocionais semelhantes, o que elevaria seu status moral em uma porção significativa.

“Limitar o status moral somente àqueles que podem pensar racionalmente pode funcionar bem para a IA, mas isso é contrário à intuição moral”, disse MacDonald-Glenn. “Nossa sociedade protege aqueles sem pensamento racional, como um recém-nascido, pessoas em coma, e incapacitados física ou mentalmente, e promulgou leis contra a crueldade animais”. Sobre a questão da concessão do status moral, MacDonald-Glenn recorre ao filósofo inglês Jeremy Bentham, que disse a famosa frase: “A questão não é se eles podem raciocinar nem se eles podem falar mas, eles podem sofrer?”.

A consciência pode surgir em uma máquina?

Mas nem todos concordam que os direitos humanos devem ser estendidos aos não-humanos – mesmo que eles demonstrem capacidades como emoções e comportamentos autoconscientes. Alguns pensadores argumentam que apenas humanos devem poder participar do contrato social, e que o mundo pode ser adequadamente organizado em Homo sapiens e tudo mais – seja “tudo mais” seu videogame, geladeira, cachorro de estimação ou robô de companhia.

O advogado e escritor americano Wesley J. Smith, membro sênior do Centro de Excepcionalismo Humano do Discovery Institute, diz que ainda não alcançamos os direitos humanos universais, e que é extremamente prematuro começar a nos preocupar com os futuros direitos dos robôs.

“Nenhuma máquina deve ser considerada um portador de direitos”, disse Smith ao Gizmodo. “Até a máquina mais sofisticada é apenas uma máquina. Não é um ser vivo. Não é um organismo. É apenas a soma de sua programação, seja feita por um humano, por outro computador ou por auto-programação”.

Smith acredita que apenas seres humanos e feitos humanos devem ser considerados pessoas.

“Temos deveres para com os animais que podem sofrer, mas eles nunca devem ser considerados um ‘alguém’ “, disse ele. Apontando para o conceito de animais como “propriedade senciente”, ele diz que é um identificador válido porque “colocaria um fardo maior em nós para tratar nossa propriedade senciente de maneiras que não lhe seja causado sofrimento indevido, como distinto da propriedade inanimada”.

Implícito na análise de Smith, está a suposição de que os seres humanos, ou organismos biológicos, têm algo que as máquinas nunca serão capazes de alcançar. Em eras anteriores, essa “coisa” era uma alma ou espírito ou algum tipo de força vital indescritível. Conhecida como vitalismo, essa ideia foi amplamente substituída por uma visão funcionalista (computacional) da mente, na qual nossos cérebros são separados de qualquer tipo de fenômeno sobrenatural. No entanto, a ideia de que uma máquina nunca será capaz de pensar ou experimentar a autoconsciência como um humano ainda persiste hoje, mesmo entre os cientistas, refletindo o fato de que nossa compreensão da base biológica da consciência em humanos ainda é muito limitada.

Lori Marino, professora de neurociência e biologia comportamental do Emory Center for Ethics, diz que as máquinas provavelmente nunca merecerão direitos ao nível humano, ou quaisquer direitos. A razão, diz ela, é que alguns neurocientistas, como Antonio Damasio, teorizam que ser senciente tem tudo a ver com se o sistema nervoso é determinado pela presença de canais iônicos dependentes de voltagem, que Marino descreve como o movimento de íons carregados positivamente através da membrana celular dentro de um sistema nervoso.

“Esse tipo de transmissão neural é encontrada nos organismos mais simples, protista e bactérias, e esse é o mesmo mecanismo que evoluiu até os neurônios e, depois, até os sistemas nervosos e, depois, para os cérebros”, disse Marino ao Gizmodo. “Em contraste, os robôs e toda a IA são feitos atualmente pelo fluxo de íons negativos. Dessa forma, todo o mecanismo é diferente”.

De acordo com essa lógica, Marino diz que até mesmo uma água-viva tem mais sensibilidade do que qualquer robô complexo poderia ter.

“Não sei se essa idéia está correta ou não, mas é uma possibilidade intrigante e que merece ser examinada”, disse Marino. “Eu também acho isso intuitivamente atraente porque parece haver algo em ser um ‘organismo vivo’ que é diferente de ser uma máquina realmente complexa. A proteção legal na forma de pessoalidade deve ser claramente fornecida a outros animais antes de qualquer consideração de tais proteções serem aplicadas a objetos, e robôs na minha opinião são objetos”.

David Chalmers, diretor do Centro de Mente, Cérebro e Consciência da Universidade de Nova York, diz que é difícil ter certeza desta teoria, mas ele diz que essas idéias não são especialmente sustentáveis e vão além da evidência.

“Não há muita razão no momento para pensar que o tipo específico de processamento nos canais iônicos seja essencial para a consciência”, disse Chalmers ao Gizmodo. “Mesmo se esse tipo de processamento fosse essencial, não haveria muita razão para pensar que a biologia específica é necessária, em vez da estrutura geral de processamento de informações que encontramos nela. Se [esse for o caso], uma simulação desse processamento em um computador poderia ser consciente”.

Outro cientista que acredita que a consciência é inerentemente não-computacional é Stuart Hameroff, professor de anestesiologia e psicologia na Universidade do Arizona. Ele argumentou que a consciência é uma característica fundamental e irredutível do cosmos (uma idéia conhecida como panpsiquismo). De acordo com essa linha de pensamento, os únicos cérebros capazes de verdadeira subjetividade e introspecção são aqueles compostos de matéria biológica.

A ideia de Hameroff parece interessante, mas também está fora do domínio da opinião científica dominante. É verdade que não sabemos como a sensibilidade e a consciência surgem no cérebro, mas o simples fato é que elas surgem no cérebro, e em virtude desse fato, é um aspecto da cognição que devem aderir às leis de física. É totalmente possível, como notou Marino, que a consciência não possa ser replicada em um fluxo de uns e zeros, mas isso não significa que não iremos eventualmente ultrapassar o paradigma computacional atual, conhecido como arquitetura Von Neumann, ou criar um sistema de IA híbrido no qual a consciência artificial seja produzida em conjunto com componentes biológicos.

Bio-Pod da Existenz

Quando os robôs irão merecer direitos humanos?

Dois Google Homes conversando entre si. Captura de tela via Twitch.

Ed Boyden, um neurocientista do Synthetic Neurobiology Group e professor associado do MIT Media Lab, diz que ainda é prematuro fazer essas perguntas.

“Não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”, disse Boyden ao Gizmodo. “Tecnicamente, você nem sabe se estou consciente, certo? Dessa forma é muito difícil avaliar se uma máquina tem, ou pode ter consciência, no momento atual”.

Boyden não acredita que exista evidência conclusiva de que não podemos replicar a consciência em um substrato alternativo (como um computador), mas admite que há discordância sobre o que é importante capturar em um cérebro emulado. “Podemos precisar de muito mais trabalho para entender o que é fundamental”, ele disse.

“Eu não acho que tenhamos uma definição operacional de consciência, no sentido de que podemos medi-la diretamente ou criá-la”.

Da mesma forma, Chalmers diz que não entendemos como a consciência surge no cérebro, muito menos em uma máquina. Ao mesmo tempo, porém, ele acredita que não temos nenhuma razão especial para pensar que as máquinas biológicas possam ser conscientes, mas as máquinas de silício não podem. “Quando entendermos como os cérebros podem ser conscientes, poderemos então entender se outras máquinas podem ser conscientes”, disse ele.

Ben Goertzel, cientista-chefe da Hanson Robotics e fundador da OpenCog Foundation, diz que temos teorias e modelos interessantes de como a consciência surge no cérebro, mas nenhuma teoria geral que abarque todos os aspectos importantes. “Ainda está aberto para diferentes pesquisadores apresentarem algumas diferentes opiniões”, disse Goertzel. “Um ponto é que os cientistas às vezes têm opiniões diferentes sobre a filosofia da consciência, mesmo quando concordam com fatos científicos e teorias sobre todas as características observáveis ​​de cérebros e computadores”.

Como podemos detectar a consciência em uma máquina?

Criar consciência em uma máquina é certamente um problema, detectá-la em um robô ou IA é outro. Cientistas como Alan Turing reconheceram este problema décadas atrás, propondo testes verbais para distinguir um computador de uma pessoa real. O problema é que os chatbots suficientemente avançados já estão enganando as pessoas em pensar que são seres humanos, então vamos precisar de algo consideravelmente mais sofisticado.

“Identificar a personalidade na inteligência das máquinas é complicado pela questão dos ‘zumbis filosóficos’”, disse Hughes. “Em outras palavras, pode ser possível criar máquinas que sejam muito boas em imitar a comunicação e o pensamento humanos, mas que não tenham autoconsciência interna ou consciência”.

Recentemente, vimos um bom e muito divertido exemplo desse fenômeno, quando uma dupla de dispositivos do Google Home eram transmitidos pela Internet durante uma longa conversa entre eles. Embora os dois bots tivessem o mesmo nível de autoconsciência de um tijolo, a natureza das conversas, que às vezes ficavam intensas e aquecidas, parecia ser bastante humana. A capacidade de discernir a IA de seres humanos é um problema que só vai piorar com o tempo.

Uma solução possível, diz Hughes, é rastrear não apenas o comportamento de sistemas artificialmente inteligentes, como o teste de Turing, mas também sua real complexidade interna, como foi proposto pela Teoria da Consciência Integrada da Informação de Giulio Tononi. Ele diz que quando medimos a complexidade matemática de um sistema, podemos gerar uma métrica chamada “phi”. Em teoria, essa medida corresponde a vários limiares de senciência e consciência, nos permitindo detectar sua presença e força. Se Tononi estiver certo, poderíamos usar o phi para garantir que algo não só se comporta como um humano, mas é complexo o suficiente para realmente ter uma experiência consciente interna humana. Da mesma forma, a teoria de Tononi implica que alguns sistemas que não se comportam ou pensam como nós, mas ativam nossas medições de phi de todas as formas corretas, podem na verdade estar conscientes.

“Reconhecendo que a bolsa de valores ou uma rede de computação de defesa podem ser tão conscientes quanto os seres humanos podem ser um bom passo nos afastando do antropocentrismo, mesmo que eles não demonstrem dor ou autoconsciência”, disse Hughes. “Mas isso nos levará a um conjunto realmente pós-humano de questões éticas”.

Outra solução possível é identificar os correlatos neurais da consciência em uma máquina. Em outras palavras, reconhecer as partes de uma máquina que são projetadas para produzir consciência. Se uma IA possui essas partes, e se essas partes estão funcionando conforme o esperado, podemos ficar mais confiantes em nossa capacidade de avaliar a consciência.

Quando os robôs irão merecer direitos humanos?

Que direitos devemos dar às máquinas? Quais máquinas recebem quais direitos?

Um dia, um robô irá olhar para um humano na cara e exigirá direitos humanos – mas isso não significa que ele vai merecê-los. Como observado, pode ser simplesmente um zumbi que está agindo em sua programação, e está tentando nos convencer a receber certos privilégios. Teremos que ter muito cuidado com isso para que não concedamos direitos humanos a máquinas inconscientes. Uma vez que descobrimos como medir o “estado cerebral” de uma máquina e avaliar a consciência e a autoconsciência, só então podemos começar a considerar se esse agente é merecedor de certos direitos e proteções.

Felizmente, este momento provavelmente virá em etapas. No início, os desenvolvedores de AI construirão cérebros básicos, emulando vermes, insetos, ratos, coelhos e assim por diante. Essas emulações baseadas em computador viverão como avatares em ambientes de realidade virtual ou como robôs no mundo analógico real. Quando isso acontecer, essas entidades sencientes irão transcender seu status como meros objetos de investigação e se tornarão sujeitos merecedores de consideração moral. Ora, isso não significa que essas simples emulações sejam merecedoras de direitos equivalentes aos humanos; em vez disso, eles serão protegidos de tal maneira que os pesquisadores e desenvolvedores não serão capazes de abusar deles (semelhante às leis em vigor para evitar o abuso de animais em laboratório, por mais frágeis que muitas dessas proteções possam ser).

Eventualmente, as emulações cerebrais humanas baseadas em computador vão existir, seja modelando o cérebro humano até o mais ínfimo detalhe, ou descobrindo como nossos cérebros funcionam a partir de uma perspectiva computacional e algorítmica. Nesse estágio, devemos ser capazes de detectar a consciência em uma máquina. Pelo menos é o que esperamos. É um pesadelo pensar que poderíamos ativar a consciência artificial em uma máquina e não perceber que o fizemos.

A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Uma vez que essas capacidades básicas tenham sido provadas em um robô ou IA, nosso possível portador de direitos ainda precisa passar no teste de personalidade. Não há consenso sobre os critérios para uma pessoa, mas as medidas padrão incluem um nível mínimo de inteligência, autocontrole, uma noção do passado e do futuro, preocupação com os outros e a capacidade de controlar a própria existência (ou seja, o livre arbítrio). Nesse último ponto, como MacDonald-Glenn explicou ao Gizmodo: “Se suas escolhas foram predeterminadas para você, então você não pode atribuir valor moral a decisões que não são realmente suas”.

É somente atingindo este nível de sofisticação que uma máquina pode realmente ser candidata aos direitos humanos. Importante, no entanto, um robô ou um IA também precisará de outras proteções. Vários anos atrás, eu propus o seguinte conjunto de direitos para as IAs que passaram pelo limiar da personalidade:
O direito de não ser desligado contra a sua vontade
O direito de ter acesso total e irrestrito ao seu próprio código-fonte
O direito de não ter seu próprio código-fonte manipulado contra a sua vontade
O direito de se auto copiar (ou não)
O direito à privacidade (ou seja, o direito de esconder seus próprios estados mentais internos)

Em alguns casos, uma máquina não irá reivindicar seus direitos, então humanos (ou outros cidadãos não humanos), terão de advogar em seu nome. Da mesma forma, é importante ressaltar que uma IA ou robô não precisa ser intelectualmente ou moralmente perfeita para merecer direitos equivalentes aos humanos. Isso se aplica aos humanos, por isso também deve ser aplicado a algumas mentes da máquina. A inteligência é bagunçada. O comportamento humano é muitas vezes aleatório, imprevisível, caótico, inconsistente e irracional. Nossos cérebros estão longe de serem perfeitos, e teremos que permitir concessões similares para as IA.

Ao mesmo tempo, uma máquina sensível, como qualquer cidadão humano responsável, ainda terá que respeitar as leis estabelecidas pelo Estado e honrar as regras da sociedade. Pelo menos se eles esperam se juntar a nós como seres totalmente autônomos. Em contraste, as crianças e os deficientes intelectuais graves se qualificam para os direitos humanos, mas não os responsabilizamos por suas ações. Dependendo das habilidades de um AI ou robô, ele terá que ser responsável por si mesmo ou, em alguns casos, ser vigiado por um guardião, que terá que suportar o peso da responsabilidade.

E se não o fizermos?

Quando nossas máquinas atingirem um certo limiar de sofisticação, não poderemos mais excluí-las de nossa sociedade, instituições e leis. Não teremos mais bons motivos para negar-lhes os direitos humanos; fazer o contrário seria equivalente à discriminação e à escravidão. Criar uma divisão arbitrária entre seres biológicos e máquinas seria uma expressão do excepcionalismo humano e do chauvinismo – posições ideológicas que afirmam que os seres humanos biológicos são especiais e que apenas as mentes biológicas são importantes.

“Ao considerar se queremos ou não expandir a pessoalidade moral e legal, uma questão importante é ‘que tipo de pessoas queremos ser?’ “, colocou MacDonald-Glenn. “Nós enfatizamos a Regra de Ouro ou enfatizamos ‘quem possui as regras do ouro?’ ”.

Além disso, conceder direitos para as IA criaria um importante precedente. Se respeitarmos as AIs como iguais sociais, seria um longo caminho para assegurar a coesão social e manter um senso de justiça. O fracasso aqui pode resultar em tumulto social e até mesmo uma reação das IA contra os humanos. Dado o potencial da inteligência das máquinas para superar as habilidades humanas, isso seria uma receita para o desastre.

É importante ressaltar que respeitar os direitos dos robôs também poderia servir para proteger outros tipos de pessoas emergentes, como ciborgues, seres humanos transgênicos com DNA estrangeiro e seres humanos que tiveram seus cérebros copiados, digitalizados e carregados em supercomputadores.

Vai demorar um pouco até que desenvolvamos uma máquina que mereça direitos humanos, mas dado o que está em jogo – tanto para robôs artificialmente inteligentes quanto para os humanos – nunca é cedo demais para começar a planejar com antecedência.

https://gizmodo.uol.com.br/quando-os-robos-irao-merecer-direitos-humanos/

Por que este psicólogo americano diz que o jornalismo está sendo destruído pela internet

“O jornalismo está sendo destruído pela internet, e isso nos leva a um futuro incerto e muito perigoso.” Esta é a visão do psicólogo Robert Epstein, doutor pela Universidade de Harvard que se dedica a estudar a atuação nas redes sociais das gigantes de tecnologia e defende uma interferência direta nessas empresas.

Por que este psicólogo americano diz que o jornalismo está sendo destruído pela internet

Por que este psicólogo americano diz que o jornalismo está sendo destruído pela internet

Segundo ele, as pessoas não têm mais como discernir o verdadeiro do falso, porque “a informação vem de todos os lados, sem os filtros, que eram os processos de apuração do jornalismo”. “Um impacto como esse (das redes sociais) jamais existiu na história humana.”

Em entrevista à BBC News Brasil, o atual diretor do Cambridge Center for Behavioral Studies, dos EUA, defendeu que haja uma intervenção direta nas empresas que controlam as redes sociais, para que a disseminação de notícias falsas – as chamadas “fake news” – não interfiram em processos eleitorais.

Em 2015, Epstein publicou um polêmico artigo classificando os sites de busca na internet, e o Google em especial, como uma séria ameaça aos sistemas democráticos de governo.

Ele acusava a empresa de ter difundido notícias favoráveis à candidata democrata Hillary Clinton no começo da campanha para as eleições presidenciais americanas em 2016. Hillary acabou derrotada pelo atual presidente, Donald Trump.

O então diretor de pesquisa do Google, Amit Singhal, rejeitou as alegações e disse que a empresa “nunca interferiu na ordenação de resultados de buscas feitas sobre temas políticos ou algum outro assunto, com o objetivo de manipular a opinião de seus usuários.”

Epstein insiste, porém, que o setor de tecnologia precisa de mais monitoramento, sem o qual a atuação dessas corporações gigantescas pode ser extremamente nociva à democracia.

Para ele, “ninguém, nenhuma empresa, nenhuma entidade deve ter tanto poder concentrado, e ficar imune ao monitoramento.”

Acho que estamos indo numa direção muito perigosa', adverte Epstein

Acho que estamos indo numa direção muito perigosa’, adverte Epstein

A premissa de Epstein é que empresas como Google, Facebook e WhatsApp são “forças do caos”, que não prestam contas de suas metas e processos a ninguém. “Elas são as forças mais poderosas do mundo atual e, com elas, todas as redes sociais.”

Epstein acredita que, atualmente, uma das maneiras mais eficazes de exercer influência política, por exemplo, é “doar dinheiro a um candidato para que ele use a tecnologia para garantir sua vitória nas urnas.”

Ele disse não ter se surpreendido com a proliferação de mensagens falsas durante a campanha eleitoral no Brasil, que para muitos foi um dos fatores determinantes do resultado das eleições, apesar de pesquisa do Ibope ter indicado que a influência das redes sociais não foi tão grande quanto imaginado.

“Hoje cria opiniões quem gritar mais alto e falar aos medos de segmentos e ideias pré-concebidas do público. Sem controle, sem processos, sem prestar contas a ninguém. Isso é um futuro bom? De jeito nenhum. Acho que estamos indo numa direção muito perigosa.”

Há seis anos, Epstein se dedica a estudar a operação do Facebook e principalmente a do Google, a maior plataforma de busca do mundo.

“Já existia um bom volume de textos científicos sobre como os resultados de buscas na internet influenciavam as escolhas e compras dos usuários. Especificamente, a ordem em que as respostas às buscas eram apresentadas acabava por determinar a decisão final do usuário.”

Fascinado pela quantidade de informação disponível, Epstein reuniu num pequeno grupo alunos e amigos, e com eles começou a fazer testes.

Em vez de “compras”, Epstein propôs testar a influência da ordem de apresentação dos resultados de buscas em questões políticas durante a campanha eleitoral.

Baseado em pesquisas semelhantes, Epstein esperava um impacto entre 2% e 4%.

“No primeiro teste, a ordem de apresentação de resultado da busca alterou em 48% a intenção de voto”, ele diz.

“No segundo teste, a alteração foi de 63%.”

“Fiquei horrorizado”, ele diz.

“Algo aparentemente tão simples tinha um impacto tão vasto, tão profundo, era capaz de mudar as opiniões das pessoas sobre os candidatos numa escala enorme.”

Em 2014, Epstein levou seu laboratório de pesquisa para a Índia. Ele queria repetir os testes na eleição que elegeu o novo parlamento da “maior democracia do mundo”, com 815 milhões de eleitores.

“Os resultados foram idênticos aos dos Estados Unidos”, Epstein diz. “Os eleitores indianos foram igualmente afetados pelo modo e ordem em que os candidatos eram apresentados em buscas.”

“Estas são questões muito sérias”, Epstein continua, “quem controla essas empresas? Como funcionam internamente? A quem eles respondem? O impacto de empresas como essas jamais existiu na história humana.”

“Vivemos numa era de profundas transformações e de poderes que jamais acreditamos ser capazes de influenciar o modo que pensamos e que agimos”, acrescenta ele.

“E o pior ainda vem por aí”, ele diz – os “realfakes” ou “deepfakes”, aplicativos capazes de criar fotos e vídeos colocando uma pessoa em qualquer cenário ou situação, fazendo e dizendo algo que nunca teria feito ou dito na vida real.

“Vamos começar a ver esse tipo de fakes muito em breve sendo usado em larga escala”, ele alerta.

“A manipulação dos resultados de busca pela alteração do algoritmo e pela criação de “eventos efêmeros, a capacidade de plataformas de eliminar contas sumariamente e divulgar, através de conteúdo fornecido por terceiros, informações falsas – como se viu recentemente no Brasil, com o WhatsApp -, acontecem porque nossas instituições ainda estão vivendo num mundo onde nada disso existe”, diz Epstein.

O pesquisador está, neste momento, desenvolvendo um sistema de monitoramento de plataformas online que, segundo ele, pode ser a única saída para conter a disseminação de informação manipulada.

“A única solução viável que vejo são sistemas de monitoramento capazes de captar imediatamente distorções e conteúdo falso, e fornecer provas de ambos”, diz Epstein.

“Provas substanciais, capazes de apoiar um processo legal, um litígio e outras medidas legais.”

A meta a longo prazo, ele diz, é “tornar plataformas online mais responsáveis e dar mais apoio ao jornalismo, restaurando sua capacidade de disseminar informação.”

Mas, ele acrescenta, “um sistema desses é caro. É preciso investimento para isso. Mas, para enfrentar a tecnologia, só mais tecnologia”.

Cientistas revelam roteiro para implementar internet quântica

Cientistas revelam roteiro para implementar internet quântica

Cientistas revelam roteiro para implementar internet quântica

Atualmente, um dos tópicos que mais se ouve falar é a falha de segurança virtual. Essas brechas geralmente perpetuam o roubo de dados e desencadeiam muitas vezes em cibercrimes. Uma solução para este problema poderia ser a implementação de uma internet quântica, baseada nos mais recentes avanços da ciência de partículas subatômicas. E o assunto, aparentemente, está sendo cada vez mais levado a sério.

Na última semana, três cientistas do centro QuTech da Universidade de Tecnologia de Delft (TU Delft), localizada nos Países Baixos, revelaram um roteiro para o desenvolvimento da internet quântica; e, de carona neste plano, cientistas da Universidade de Chicago, nos Estados Unidos, anunciaram que pretendem aderir à expansão da internet quântica também.

A princípio, o plano dos cientistas da TU Delft é conectar quatro cidades através de um link quântico, algo que seria feito até 2020, oferecendo assim diretrizes para as pessoas que querem implementar esse tipo de rede no mundo real. Já os cientistas da Universidade de Chicago planejam estabelecer um link quântico ao longo de uma distância de 30 milhas.

Cientistas revelam roteiro para implementar internet quântica

“Internet quântica”, que pode ser a mais segura possível, está a um passo de ser criada!

Entendendo a internet quântica

A internet quântica não é exatamente um upgrade da internet normal, mas sim um “adendo” à ela. O roteiro dos cientistas da TU Delft afirma que o objetivo é “fornecer tecnologia de internet fundamentalmente nova, possibilitando a comunicação quântica entre quaisquer dois pontos da Terra”. Os usos para esta função, porém, não estão claros ainda.

Especula-se que a internet quântica poderia melhorar a segurança cibernética, ajudar a sincronizar melhor os relógios virtuais, melhorar as redes de telescópios (inclusive das que desejam visualizar o buraco negro central da Via Láctea), aprimorar a tecnologia de sensores ou, ainda, permitir acesso a um processador quântico por meio da nuvem.

Apesar de não parecer, todas essas funções diferem bastante a internet quântica de uma rede clássica, pois esta última transmite dados traduzidos em unidades fundamentais chamadas bits, sempre iguais a zero ou a um. A quântica, por outro lado, poderia transmitir qubits, que assumem uma superposição de zero e um. Isso significa que eles podem ter valores que são parcialmente zero e parcialmente um ao mesmo tempo.

Além disso, os qubits não podem ser copiados e qualquer tentativa disso seria detectada. A comunicação com esse tipo de dados também poderia permitir a realização de cálculos mais poderosos e ricos em uma nuvem quântica.

Passo a passo

O documento (considerado um “manifesto para a internet quântica”) dos cientistas da TU Delft ainda estabelece que, para a internet quântica ganhar vida, um link físico teria de ser instalado para conseguir transmitir os qubits, com repetidores quânticos em sua extensão que permitiriam dois qubits para grandes distâncias e, nas pontas, nós quânticos que mediriam os valores dos qubits ou processadores quânticos do computador em escala global.

Com os links estabelecidos, a rede repetidora receberia chaves de criptografia quântica (as quais não poderiam ser retransmitidas), e uma rede poderia enviar qubits entre um nó e outro. Por fim, haveria um entrelaçamento entre os nós, o que culminaria no armazenamento dos dados quânticos. Bastaria então ligar os processadores quânticos e deixar os cálculos acontecerem nos links.

Apesar de já existirem experimentos avançados atualmente com esta tecnologia, a maior limitação ainda é a grande quantidade de tempo que os qubits levam para gerar emaranhamento entre os links e nós.

De toda forma, a computação quântica parece estar, aos poucos, encontrando seu caminho. Além do projeto da TU Delft na Holanda, a China também tem um satélite usado para experimentos quânticos, o Micius (apesar de seus qubits não poderem ser armazenados ou manipulados). E há ainda a Universidade de Chicago, que está liderando um recém-anunciado plano financiado pelo Departamento de Energia dos Estados unidos, onde estão ocorrendo testes de entrelaçamento em uma distância de 30 milhas através de um link de fibra ótica que estava inativo.

David Awschalom, professor de informação quântica da Universidade de Chicago, disse ao Gizmondo que é preciso “treinar uma geração de estudantes que serão os futuros usuários dessa tecnologia” primeiro. Ele ainda acrescenta: “Uma coisa legal sobre a construção de uma plataforma quântica como a nossa é que ela fornecerá uma enorme plataforma educacional”.

 

https://canaltech.com.br/inovacao/cientistas-revelam-roteiro-para-implementar-internet-quantica-125702/

Agora temos uma prova de que computadores quânticos superam os tradicionais

Pesquisadores conseguiram provar, pela primeira vez, que sistemas quânticos oferecem vantagem computacional sobre os modelos clássicos

Pesquisadores conseguiram provar, pela primeira vez, que sistemas quânticos oferecem vantagem computacional sobre os modelos clássicos

Pesquisadores conseguiram provar, pela primeira vez, que sistemas quânticos oferecem vantagem computacional sobre os modelos clássicos

Uma equipe internacional de pesquisadores conseguiu provar, pela primeira vez, que os computadores quânticos, de fato, oferecem vantagem computacional em relação aos sistemas tradicionais. Tal conclusão foi detalhada em artigo publicado na revista Science. Nele, os pesquisadores descrevem o trabalho de um circuito quântico que foi capaz de resolver um problema matemático que seria impossível para um computador tradicional quando sujeito às mesmas restrições.

Em entrevista ao site Motherboard, Robert König, teórico na Universidade Técnica de Munique e principal autor do artigo, explicou que o grande trunfo do trabalho foi mostrar como os circuitos quânticos conseguem ser computacionalmente mais poderosos do que os clássicos da mesma estrutura. O problema colocado poderia ser resolvido da forma “clássica”, mas exigiria mais recursos.

A vantagem quântica aconteceu por causa da “não-localidade”, uma característica dos sistemas quânticos espacialmente isolados que permite que eles sejam considerados um só sistema: uma mudança em um sistema resulta – no mesmo momento – em uma mudança em outro.

Para entender melhor, qubits são o análogo quântico de bits (de um computador tradicional), exceto que sendo um ou um zero, os qubits podem apresentar uma “superposição” de ambos ao mesmo tempo.

Com a projeção de circuitos quânticos, há uma compensação entre o número de qubits interagindo no circuito e o número de operações que podem ser executadas nesses qubits – denominado de “profundidade” do circuito. Aumentar essa “profundidade” faz com que cresça, também, as habilidades de processamento de informações.

Agora temos uma prova de que computadores quânticos superam os tradicionais

Agora temos uma prova de que computadores quânticos superam os tradicionais

Por outro lado, esse aumento exige uma diminuição correspondente. Um circuito com um grande número de qubits é limitado a um pequeno número de operações (tem uma profundidade “superficial”), tornando difícil a vantagem sobre os computadores tradicionais.

O problema ocorre porque um circuito quântico que não incorpora a correção de erros é limitado em seu número de operações que podem ser executadas no qubits antes que elas acabem “quebrando”, perdendo seus dados. Ou seja, conforme mais qubits são lançados, há mais espaço para erros, causando um decréscimo no número de operações que podem ser executadas antes de serem desfeitas.

Para acabar com isso, a equipe de Kônig projetou um circuito quântico em que vários circuitos superficiais operam em paralelo, mas ainda podem ser considerados como um único sistema por causa da não-localidade. Os circuitos foram capazes de resolver um problema de álgebra usando um número fixo de operações (eles tinham uma “profundidade constante”), algo matematicamente impossível em um circuito clássico.

Vantagens como essa permitirão, em teoria, que futuros computadores quânticos façam cálculos muito mais rapidamente do que um computador clássico. O algoritmo de Shor, por exemplo, permite que os computadores quânticos descubram os fatores de primos e possam, eventualmente, permitir que os computadores quânticos com grande número de qubits quebrem as formas mais modernas de criptografia.

Os pesquisadores alemães veem seu trabalho como um dos fundamentos matemáticos para aplicações práticas e experimentais no futuro próximo. Com a simplificação dos circuitos, eles poderão estar ao alcance de computadores quânticos experimentais em não muito tempo.

O que é a ‘pasta nuclear’, material mais duro já descoberto no Universo

Material de estrutura única e considerado o mais forte até agora faz parte da composição das chamadas estrelas de neutrôns

Existe um material 10 bilhões de vezes mais resistente que o aço.

É o que aponta um estudo que calculou a dureza do material encontrado no interior da crosta das estrelas de nêutrons.

Material de estrutura única e considerado o mais forte até agora faz parte da composição das chamadas estrelas de neutrôns.

O que é a ‘pasta nuclear’, material mais duro já descoberto no Universo

Essas estrelas são aquelas que surgem quando as estrelas “convencionais” chegam a certa idade e então estouram e colapsam em uma massa de nêutrons.

O que os cientistas descobriram é que o material debaixo da superfície delas – batizado como pasta nuclear – é o mais forte do Universo.

‘Lasanha e espaguete’

O pesquisador Matthew Caplan, da Universidade McGill, no Canadá, e colegas da Universidade de Indiana e do Instituto de Tecnologia da Califórnia, nos Estados Unidos, realizaram juntos as mais importantes simulações de computador já feitas sobre as crostas de estrelas de nêutrons.

Ilustração da pasta nuclear com estrutura em formato semelhante ao do espaguete, waffle e lasanha

Ilustração da pasta nuclear com estrutura em formato semelhante ao do espaguete, waffle e lasanha

Material de estrutura única e considerado o mais forte até agora faz parte da composição das chamadas estrelas de neutrôns.

As estrelas de nêutrons nascem como resultado de uma implosão que comprime um objeto do tamanho do Sol para aproximadamente o tamanho da cidade de Montreal, tornado-o “10 bilhões de vezes mais denso do que qualquer coisa na Terra”, explica Caplan em um comunicado da Universidade McGill.

Esta alta densidade faz com que o material que forma uma estrela como essas – a pasta nuclear – tenha uma estrutura única.

Sob a crosta das estrelas, prótons e nêutrons se unem em formas semelhantes a tipos de massa, como lasanha ou espaguete. Daí o nome “pasta nuclear”.

As enormes densidades e formas estranhas tornam essa massa incrivelmente rígida.

E ela poderia ser útil para os seres humanos?

“A pasta nuclear só existe graças à enorme pressão proporcionada pela gravidade da estrela de nêutrons. Se você retirar essa pasta da estrela, ela se decompõe e explode como uma bomba nuclear. É por isso que os seres humanos provavelmente não podem construir nada a partir dela no curto prazo”, diz Caplan à BBC News Mundo, serviço em espanhol da BBC.

E qual é a cor ou textura deste material?

“Se você pudesse segurar um punhado de pasta nuclear em sua mão, não conseguiria ver as diferentes formas, pois elas são muito menores que um átomo. O material estaria tão quente que brilharia em tom de vermelho vivo como a superfície do Sol. Além disso, explodiria”, acrescenta o especialista.

Descoberta importante

Para descobrir a pasta nuclear, foram necessários dois milhões de horas de processamento em simulações de computador ou o equivalente a 250 anos em um laptop com uma única unidade de processamento gráfico (GPU, da sigla em inglês) – usada principalmente para gerenciar e melhorar o desempenho de vídeos e gráficos.

Com estas simulações, os cientistas conseguiram esticar e deformar o material encontrado nas profundezas da crosta das estrelas de nêutrons.

Caplan afirma que esses resultados “são valiosos para os astrônomos que estudam as estrelas de nêutrons”.

“Sua camada externa é a parte que geralmente observamos, por isso é fundamental conhecer o interior, para interpretar as observações astronômicas dessas estrelas.”

As descobertas também poderiam ajudar os astrofísicos a entenderem melhor as ondas gravitacionais, porque os novos resultados sugerem que estrelas de nêutrons solitárias poderiam gerar pequenas ondas gravitacionais.

Nasa trabalha em “Waze” para ser usado em Marte

Se você tiver um celular e acesso à internet, é praticamente impossível se perder em boa parte do planeta Terra atualmente. Luxo há alguns anos, a navegação GPS se popularizou de tal maneira que ferramentas de mapas, como Google Maps e Waze, se tornaram essenciais no cotidiano de boa parte das pessoas.

Nasa trabalha em "Waze" para ser usado em Marte.

Nasa trabalha em “Waze” para ser usado em Marte.

Mas e se elas quiserem se localizar fora do nosso planeta? Como saber qual o caminho correto para ir da cratera “A” até a cratera “B” na Lua, por exemplo?

Para resolver esse “problema”, a Nasa, em parceria com a Intel, trabalha na construção de um sistema de navegação que possa ser utilizado em outros lugares do universo.

Para começar, ele não poderia ser chamado de GPS. Isso, porque, a sigla se refere à “sistema de posicionamento global” e, bem, esse guia espacial não usaria satélites na órbita da Terra (ou de outro planeta) para determinar a sua posição e sugerir uma rota.

É aqui que entra o uso da inteligência artificial. A meta dos pesquisadores é usar essa tecnologia para criar um sistema que seja capaz de identificar, por meio de fotos, qualquer lugar da superfície de um planeta ou satélite com a Lua.

O sistema, em questão, seria uma espécie de banco de dados de fotografias que, uma vez analisadas, criariam um modelo virtual do corpo celeste.

Com esse modelo formado, caberia a inteligência artificial analisar a posição de quem procura informações de localização – a consulta dos interessados se daria por meio de uma foto enviada ao sistema – e determinar a melhor rota para se chegar ao local desejado.

Para testar a eficácia do sistema, os pesquisadores “criaram” uma Lua, abastecendo a inteligência artificial com 2,4 milhões de imagens de um corpo celeste hipotético. Esse material teria sido o suficiente para permitir que se navegasse pela superfície dessa Lua.

O próximo passo da equipe é utilizar imagens reais de Marte para criar o mesmo banco de dados e permitir que a sua superfície seja mapeada a ponto do sistema de navegação ser capaz de dar orientações para quem quiser se locomover pelo planeta.

Se tudo der certo, é bastante provável que os primeiros humanos a pisarem no planeta vermelho terão meios de se locomover sabendo exatamente como e para onde estão indo.

Robô usa reconhecimento facial e acaba com a graça de ‘Onde Está o Wally’

Lançado no final da década de 1980, a série de livros Onde Está O Wally? fez sucesso no Brasil ao desafiar as crianças a localizar o simpático rapaz de camisa listrada entre centenas de elementos desenhados nas páginas. Felizmente, a inteligência artificial daquela época não era tão desenvolvida para estragar a graça da brincadeira: um robô desenvolvido com a tecnologia de reconhecimento facial do Google encontrou o Wally (conhecido nos Estados Unidos como Waldo) em apenas 4,5 segundos.

Máquina desenvolvida com tecnologia do Google localizou o personagem em apenas 4,5 segundos

Conhecido como Redpepper, o programa consegue gravar previamente as imagens que deseja localizar e, ao vasculhar todos os elementos, consegue facilmente identificar sua posição. Bastam uma pequena câmera e o chip Raspberry Pi, capaz de automatizar diferentes programações, para que a máquina funcione com o mecanismo de reconecimento facial.

De acordo com os desenvolvedores da tecnologia, o robô consegue realizar a identificação com 95% de precisão. Equipado com um braço mecânico, ele aponta rapidamente a localização de Wally.

Veja como a máquina funciona nesse vídeo:

Antes de ser testado, a máquina memorizou mais de 100 desenhos diferentes do Wally, disponíveis no Google. O aprendizado foi o bastante para que o robô conseguisse fazer a identificação dos elementos nas diferentes páginas apresentadas.

Robô usa reconhecimento facial e acaba com a graça de ‘Onde Está o Wally’

Em 2015, o cientista da computação Randal Olson publicou uma base de dados que reúne as informações a respeito da localização de Wally em 68 desenhos diferentes. De acordo com o estudo, o personagem de camisa listrada quase nunca aparece no canto superior esquerdo, provavelmente porque ali costuma ter um cartão postal ou algo parecido.

As bordas também raramente são um esconderijo, pois são lugares mais óbvios pelos quais as pessoas começam sua busca – especialmente a borda inferior do canto direito, que é o primeiro lugar que se vê ao virar a página. Wally nunca se esconde ali.

Robô usa reconhecimento facial e acaba com a graça de 'Onde Está o Wally'

Máquina desenvolvida com tecnologia do Google localizou o personagem em apenas 4,5 segundos

Criado pelo ilustrador britânico Martin Handford, Onde Está o Wally já foi traduzido para diferentes línguas — no Brasil, foram publicados diferentes livros com temáticas como a história, o universo cinematográfico e paisagens de diferentes lugares do planeta.

fonte: https://revistagalileu.globo.com/Tecnologia/noticia/2018/08/robo-usa-reconhecimento-facial-e-acaba-com-graca-de-onde-esta-o-wally.html

Cientistas criam método para reduzir testes em animais de laboratório

Com novo método, cerca de 57% dos testes podem ser feitos sem o uso de animais

Pesquisadores norte-americanos revelaram nesta quarta-feira (11) a descoberta de um método utilizando big data (um grande volume de dados) que pode reduzir em quase 60% a necessidade de testes químicos nos quase 4 milhões de animais utilizados todos os anos pela ciência.

Cientistas criam método para reduzir testes em animais de laboratório.

Trata-se de uma ferramenta informatizada construída com base em um enorme banco de dados de estruturas moleculares. Quando combinadas, essas informações não só substituem o uso animal como, às vezes, apresentam resultados melhores do que os testes em bichos. São citados como exemplos casos de sensibilização da pele e irritação nos olhos, segundo relatam os pesquisadores na revista especializada “Toxicological  Sciences”.

“Estamos entusiasmados com o potencial desse modelo”, diz a toxicóloga Nicole Kleinstreuer, vice-diretora de um centro que avalia alternativas ao teste em animais no NIEHS (Instituto Nacional de Ciências da Saúde Ambiental) em Durham, Carolina do Norte (EUA). A pesquisadora, que não esteve envolvida no trabalho, diz que usar “big data […] é uma via extremamente promissora para reduzir e substituir os testes em animais”.

A maioria dos países exigem que novos produtos químicos só entrem no mercado depois de passarem por alguns testes de segurança. Mas a prática de expor coelhos, ratos e outros animais a produtos químicos para avaliar esses riscos vem enfrentando objeções públicas cada vez maiores, especialmente por parte de entidades de defesa dos animais.

Em 2016, o Congresso dos Estados Unidos aprovou uma lei de segurança química que obriga as agências reguladoras federais a tomarem medidas para reduzir o número de animais utilizados pelas empresas em testes de segurança.

Uma das sugestões é usar o que já se sabe sobre alguns compostos existentes para prever os riscos apresentados em novos produtos químicos com estruturas semelhantes. Há dois anos, uma equipe liderada por Thomas Hartung, da Escola Bloomberg de Saúde Pública Johns Hopkins, em Baltimore, Maryland (EUA), deu um passo em direção a essa meta ao reunir dados de 9.800 testes em produtos químicos regulamentados pela ECHA (Agência Europeia de Produtos Químicos).

Cientistas criam método para reduzir testes em animais de laboratório.

Cientistas criam método para reduzir testes em animais de laboratório.

No artigo publicado hoje, a equipe de Hartung explica como chegou ao resultado: os pesquisadores expandiram seu banco de dados para 10 milhões de estruturas químicas ao adicionar as informações do banco de dados público PubChem e do Programa Nacional de Toxicologia dos Estados Unidos.

Em seguida, compararam as estruturas e propriedades toxicológicas, gerando um total de 50 trilhões de comparações e criando um vasto mapa de similaridade que agrupa compostos por estrutura e efeito. Finalmente, os cientistas testaram o modelo: eles pediram para prever o grau toxicológico de um produto químico escolhido aleatoriamente e compararam os resultados a seis testes em animais realizados com o mesmo composto.

Em média, a ferramenta computacional reproduziu em 87% os resultados dos testes em animais. O percentual é maior do que os próprios testes em animais, diz Hartung. Na revisão da literatura, seu grupo descobriu que os testes repetidos em ratos e coelhos reproduzem os resultados anteriores em apenas 81% dos casos. “Esta é uma descoberta importante”, afirma o pesquisador. “Nossos dados mostram que podemos substituir seis testes comuns –que respondem por 57% dos testes toxicológicos em animais do mundo– e obter resultados mais confiáveis.”

O resultado poderia ajudar a acabar com a repetição desnecessária de testes. A equipe descobriu, por exemplo, que 69 produtos químicos foram testados pelo menos 45 vezes no chamado “teste de coelho de Draize” –um método que gerou protestos da opinião pública por envolver o uso de um produto químico no olho de um coelho.

Mas o sistema de big data não é perfeito. Embora possa prever efeitos simples, como irritação na pele, casos mais complexos, como câncer, ainda estão fora de alcance, diz Mike Rasenberg, chefe da unidade de Avaliação e Disseminação Computacional da ECHA. “Esse não será o fim dos testes em animais”, prevê, “mas é um conceito útil para reduzi-los”.

A questão agora é como as agências reguladoras vão reagir ao novo método. Rasenberg diz acreditar que os europeus o aceitarão para testes simples porque atende a seus critérios de validação. Nos Estados Unidos, o centro NIEHS está trabalhando na validação do método.

Depois disso, a EPA poderá revisar os resultados da avaliação para determinar como e se eles podem ser usados. Se a avaliação for favorável, esses modelos poderão ser usados em conjunto com outras ferramentas para classificar um grande número de substâncias.

Hartung espera que o método de rastreamento também seja de interesse para os países que estão se preparando para implementar novas leis químicas, como a Turquia e a Coreia do Sul.

Google Duplex: entenda como o sistema de ligações por IA funciona

Google Duplex: entenda como o sistema de ligações por IA funciona

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google anunciou, durante o I/O 2018, a nova habilidade de sua assistente virtual: falar pelo telefone com seres humanos. Por meio de uma tecnologia chamada Duplex, a Google Assistente, em breve, será capaz de resolver pequenas tarefas do “mundo real” que exigem uma ligação.

O recurso, que mostra um passo largo no campo de inteligência artifical, promete facilitar a vida do usuário ao marcar compromissos, como uma hora no salão de beleza ou uma reserva em um restaurante. A tecnologia pode ser uma vantagem para pequenos negócios que não possuem um site ou sistema online de reservas.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google Assistente será capaz de realizar ligações sem interferência humana (Foto: Ana Marques/TechTudo)

Segundo a empresa, o Google Duplex não consegue participar de qualquer conversa, mas está focado em realizar tarefas específicas pelo telefone de maneira muito natural. O sistema vai permitir que a pessoa do outro lado da linha fale normalmente, sem precisar se adaptar à máquina – como muitas vezes fazemos ao dar comandos de voz.

A complexidade da linguagem humana

Para atingir naturalidade e conforto nos diálogos, durante seu desenvolvimento, o Duplex foi explorado profundamente dentro de domínios fechados. De qualquer forma, a fala humana não tem nada de simples. Quando uma pessoa conversa com outra, ela fala rápido, se corrige no meio da frase, é prolixa, omite palavras confiando no contexto para entendimento e expressa intenções diversas dentro da mesma frase. No telefone, ainda há problemas com o som de fundo e a qualidade do áudio.

Por exemplo, ao ser questionado sobre os horários de um estabelecimento, um funcionário diz: “Então… ééé… de terça a quinta, a gente abre das onze da manhã até as duas da tarde, e depois reabre das quatro às nove. E aí na sexta, sábado, domingo… não, sexta e sábado abrimos de onze até nove e domingo de uma até nove horas.”

Google Assistente terá autonomia para marcar compromissos (Foto: Reprodução/TechTudo)

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

A inteligência artificial tem muitos desafios: entender a linguagem humana, imitar o comportamento natural, processar com rapidez as expectativas de tempo das respostas e gerar falas orgânicas, com as entonações certas. O Google promete grandes avanços em tudo isso.

Como o Duplex funciona

No cerne da tecnologia do Duplex, para lidar com esses desafios, está uma rede neural recorrente (RNN, na sigla em inglês) construída usando TensorFlow Estendido (TFX). A RNN é uma classe de rede neural artificial capaz de usar sua memória para processar uma sequência de dados fornecidos e agir dinamicamente ao longo de um período de tempo. O TFX é uma plataforma de propósitos amplos baseada no TensorFlow, estrutura de aprendizado de máquina – ou “machine learning” – de código aberto.

A rede neural do Duplex foi treinada com um banco de conversas telefônicas anônimas. Ela utiliza o resultado da tecnologia de reconhecimento automático de fala (ASR) do Google, bem como recursos do áudio, o histórico da conversa e seus parâmetros (como o serviço desejado para um compromisso ou a hora atual).

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Para controlar a entonação da fala de acordo com a circunstância, é empregada uma combinação de dois mecanismos de conversão de texto para fala (TTS), um concatenativo e outro sintético. A adição de disfluências da linguagem oral, como “hummm” e “ééé”, também ajuda o resultado final a soar mais familiar e realista.

Outro ponto importante é atender às expectativas das pessoas quanto ao tempo de reação, o que varia de situação para situação. Se você diz “alô”, vai esperar do interlocutor uma resposta instantânea, pois não tem muito o que pensar. Nesse caso, o Duplex recorre a processos de menor confiança, mas mais rápidos. Enquanto isso, em certos cenários, como ao responder a frases longas e complexas, a IA aumenta o tempo de resposta.

O Google Duplex executa diálogos sofistificados de forma totalmente autônoma, mas também sabe reconhecer quando uma tarefa mais complicada está fora do seu alcance. Quando isso acontece, o sistema repassa a solicitação para um operador humano, que vai completar a tarefa. E para treinar o software em novas áreas de atuação, instrutores experientes o supervisionam trabalhando em tempo real. Conforme necessário, eles guiam os procedimentos e assim a IA vai aprendendo.

A nova tecnologia incorporada à assistente do Google vai permitir, inclusive, que o usuário faça um pedido a qualquer momento, mesmo que sua conexão esteja ruim ou que o lugar esteja fechado. Assim que for possível, o Duplex ligará para realizar a tarefa. A ferramenta pode também beneficiar pessoas com deficiência auditiva e viajantes que não falam a língua local.

Além disso, as ligações realizadas vão ajudar a tornar algumas informações acessíveis a todos, pela internet. Quando a IA ligar para saber os horários de funcionamento de um restaurante nos feriados, por exemplo, esse dado ficará disponível online.

Assistente ajuda usuário com tarefas do cotidiano (Foto: Divulgação/Google)

Google Duplex: entenda como o sistema de ligações por IA funciona

Questões éticas

O anúncio do Google Duplex foi recebido com muita surpresa e empolgação pela mídia e pelo público, mas alguns levantaram preocupações com a ética do recurso. Nas ligações de teste apresentadas no evento do Google, os atendentes parecem nem desconfiar que estão falando com um robô. Críticos da tecnologia questionaram todo esse realismo e a possibilidade de enganar um ser humano.

A companhia, porém, afirma que a assistente virtual vai se identificar durante as conversas, deixando claro que se trata de uma inteligência artificial fazendo a ligação. O Duplex ainda está em fase de testes e não há previsão de quando os usuários terão acesso.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em todas as áreas do conhecimento há uma separação entre quem é da área e quem é de fora, com percepções diferentes da realidade. A parte de inteligência artificial talvez seja a que mais gere uma percepção totalmente fora da realidade, com pessoas de fora achando que estamos a dois ou três updates do Chrome de criar a Skynet, e que robôs como o Atlas da Boston Dynamics estão prestes a quebrar seus grilhões e dominar o mundo.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Isso explica a reação geral a uma bobagem peça artística de Alexander Reben, um daqueles artistas modernos que diferem de acumuladores por de vez em quando se livrarem de parte de sua coleção por preços exorbitantes. Ele construiu uma trapizonga onde dá um comando de voz para o Assistente do Google, o equipamento reconhece o comando, aciona um solenóide, dispara uma arma de airsoft e mata uma maçã. Eis o vídeo:

Note que ele usou uma daquelas tomadas inteligentes e nem se preocupou em acionar momentaneamente o gatilho, depois do disparo o solenóide continua ativado, mas isso não importa.

O artista diz que usou peças que tinha jogadas pelo seu estúdio (não falei?) e que

“Parte da mensagem para mim inclui as consequências não-planejadas da tecnologia e a futilidade de considerar cada caso de uso”

Ele se apressou em explicar que usou uma arma mas o equipamento poderia perfeitamente acionar uma cadeira de massagem ou uma máquina de sorvete.

A discussão, nos comentários e em outros sites enveredou sobre quem seria responsável se a arma fosse de verdade e estivesse apontada para um humano. A rigor a culpa é óbvia, ele comandou o disparo, mas e se fosse algo aleatório, que a própria máquina decide?

O pessoal que faz campanha contra drones em geral não entende a tecnologia, acham que há autonomia ali, mas não reclamam de um avião convencional com um piloto. Na verdade os “drones” são aviões de controle-remoto glorificados, ao invés de um piloto estressado com medo de um talibã em seu dia de sorte com um míssil Igla, temos dois sujeitos num escritório refrigerado em Nevada, tomando refrigerante e selecionando os alvos com calma, sem stress.

Claro, de vez em quando eles se confundem e bombardeiam um casamento árabe mas quer saber? Nem dá pra culpar.

Drones no futuro terão autonomia? provavelmente, mas eu vou contar um segredo: Já era. Esse barco já partiu. Já temos máquinas que matam pra gente sem NENHUMA preocupação ética. O pesadelo dos luditas, máquinas assassinas que se rebelam e se tornam uma ameaça a todos os humanos foram criadas na China, no Século III provavelmente ou no X com mais certeza, foram as antepassadas dessas belezinhas aqui:

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

 

 

Minas terrestres continuam a matar décadas depois que os conflitos para os quais foram instaladas já foram esquecidos. Assim como foram as 73500 vítimas civis entre 1999 e 2009, gente de países pobres, crianças brincando ou indo pra escola, agricultores tentando tirar seu sustento da terra. Só no Vietnã a área interditada daria pra alimentar 12 mil famílias.

Aí vem um playboy de Internet dizer que medo mesmo tem de um robô com um software cheio de salvaguardas pra garantir que só acertará os caras maus?

Ah sim existe outra máquina que mata indiscriminadamente, sem intervenção humana: Arame farpado.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em um mundo lindo e fofinho não precisaríamos matar ninguém, viveríamos em paz, de mãos dadas cantando Kumbaya, mas no mundo real todo mundo precisa se defender, e a tecnologia está cada vez mais eficiente. Ter medo dos avanços é crueldade, é dizer que você prefere mortes indiscriminadas. Hoje pulveriza-se um prédio enquanto as casas em volta no máximo perdem algumas janelas. Para conseguir os resultados do último grande ataque à Síria na Segunda Guerra seria preciso destruir a cidade inteira. Dessa vez foram 3 ou 4 prédios e zero vítimas civis.

Inteligência Artificial, sistemas especialistas, machine learning, têm se mostrado melhores do que humanos em um monte de tarefas, incluindo diagnosticar câncer de pele. Por quê o medo de usar a mesma tecnologia pra diferenciar amigos de inimigos? As chances de fogo amigo ou mortes de inocentes cairão bastante.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Exceto se a IA for desenvolvida pelas Indústrias Hammer.

A questão da responsabilidade? Isso foi decidido séculos atrás, se um escravo causa danos ou mata alguém, a responsabilidade é de seu dono, e as máquinas são (por enquanto) nossas escravas, vide a etimologia do termo “robô”.

Quando e SE robôs se tornarem sencientes, quando e SE robôs ganharam status legal de indivíduos, de novo o problema estará resolvido, a responsabilidade será deles. Só que aí eles decidirão se querem participar de nossas guerras ou não.