Category Archives: Tecnologia

Lixo espacial equivale à estrutura de metal da Torre Eiffel, diz Agência Espacial Europeia

A Agência Espacial Europeia (ESA, na sigla em inglês) contabilizou no fim do ano passado 19.894 objetos de lixo espacial, que circulavam ao redor da Terra, cuja massa conjunta é de, pelo menos, 8.135 toneladas, “mais que toda a estrutura de metal da Torre Eiffel”.

Lixo espacial equivale à estrutura de metal da Torre Eiffel, diz Agência Espacial Europeia

A ESA publicou nesta sexta-feira um novo relatório sobre lixo espacial, que inclui fatos, números e gráficos que mostram uma imagem detalhada de como evoluiu a quantidade de lixo que orbita o nosso planeta.

“O lixo espacial inclui todos os objetos criados pelo ser humano que não funcionam e estão em órbita sobre a Terra. Alguns deles entram regularmente na atmosfera”, disse a ESA.

A era espacial começou em 4 de outubro de 1957 com o lançamento do Sputnik 1 pela União Soviética, o primeiro satélite artificial da história. Desde então, o lixo espacial em órbita foi crescendo de forma contínua.

Primeiro, eram só partes superiores de foguetes e satélites obsoletos em órbita, mas depois, foram acrescidos pequenos objetos que geraram explosões e colisões.

O relatório anual revisa como o entorno espacial evoluiu no último ano e também como mudou desde o envio dos primeiros satélites.

Há muito tempo, a ESA adverte que o lixo espacial aumenta de forma preocupante e representa um grave perigo para os satélites operacionais.

Além disso, os objetos maiores poderiam voltar a entrar na atmosfera e cair na superfície terrestre, em áreas que poderiam estar povoadas.

O relatório assegura que o número de objetos, sua massa total e a área que ocupam aumentou ao longo do tempo até 2017.

Por isso, 60 anos depois do início da era espacial, as agências espaciais começaram a implementar opções de para o fim da vida útil dos instrumentos lançados ao espaço.

Por exemplo, a iniciativa da ESA “Espaço Limpo” procura formas para limpar o espaço e evitar a criação de mais lixo espacial.

Agora, com a tecnologia CubeSat de design de satélites pequenos e de baixo custo, o espaço em torno do planeta está ficando cada vez mais cheio e esses objetos podem danificar outras missões, por isso a ESA diz que é necessário limpar o espaço para assegurar um futuro sustentável.

No início dos anos 1960, as pesquisas realizadas nos EUA já alertavam para o problema, mas demorou bastante tempo até que a preocupação chegasse à comunidade internacional.

Em uma conferência no centro de controle de operações na cidade de Darmstadt, na Alemanha, a ESA alertou no ano passado que grandes companhias como Google e Oneweb querem lançar uma grande quantidade de satélites pequenos ao espaço, a órbitas baixas, que podem pôr em perigo as missões de satélites grandes e muito caros das agências espaciais.

A companhia Oneweb quer criar uma grande constelação de satélites para proporcionar um serviço de internet de banda larga a todo o mundo.

Para isso, será necessário colocar em órbita baixa cerca de 700 satélites nos próximos anos.

Esses satélites seriam lançados a partir de dezembro 2018 através de um foguete russo Soyuz ST, mas o primeiro lançamento foi adiado ontem para março de 2019, segundo a agência de notícias russa “Sputnik”.

Cientistas criam método para reduzir testes em animais de laboratório

Com novo método, cerca de 57% dos testes podem ser feitos sem o uso de animais

Pesquisadores norte-americanos revelaram nesta quarta-feira (11) a descoberta de um método utilizando big data (um grande volume de dados) que pode reduzir em quase 60% a necessidade de testes químicos nos quase 4 milhões de animais utilizados todos os anos pela ciência.

Cientistas criam método para reduzir testes em animais de laboratório.

Trata-se de uma ferramenta informatizada construída com base em um enorme banco de dados de estruturas moleculares. Quando combinadas, essas informações não só substituem o uso animal como, às vezes, apresentam resultados melhores do que os testes em bichos. São citados como exemplos casos de sensibilização da pele e irritação nos olhos, segundo relatam os pesquisadores na revista especializada “Toxicological  Sciences”.

“Estamos entusiasmados com o potencial desse modelo”, diz a toxicóloga Nicole Kleinstreuer, vice-diretora de um centro que avalia alternativas ao teste em animais no NIEHS (Instituto Nacional de Ciências da Saúde Ambiental) em Durham, Carolina do Norte (EUA). A pesquisadora, que não esteve envolvida no trabalho, diz que usar “big data […] é uma via extremamente promissora para reduzir e substituir os testes em animais”.

A maioria dos países exigem que novos produtos químicos só entrem no mercado depois de passarem por alguns testes de segurança. Mas a prática de expor coelhos, ratos e outros animais a produtos químicos para avaliar esses riscos vem enfrentando objeções públicas cada vez maiores, especialmente por parte de entidades de defesa dos animais.

Em 2016, o Congresso dos Estados Unidos aprovou uma lei de segurança química que obriga as agências reguladoras federais a tomarem medidas para reduzir o número de animais utilizados pelas empresas em testes de segurança.

Uma das sugestões é usar o que já se sabe sobre alguns compostos existentes para prever os riscos apresentados em novos produtos químicos com estruturas semelhantes. Há dois anos, uma equipe liderada por Thomas Hartung, da Escola Bloomberg de Saúde Pública Johns Hopkins, em Baltimore, Maryland (EUA), deu um passo em direção a essa meta ao reunir dados de 9.800 testes em produtos químicos regulamentados pela ECHA (Agência Europeia de Produtos Químicos).

Cientistas criam método para reduzir testes em animais de laboratório.

Cientistas criam método para reduzir testes em animais de laboratório.

No artigo publicado hoje, a equipe de Hartung explica como chegou ao resultado: os pesquisadores expandiram seu banco de dados para 10 milhões de estruturas químicas ao adicionar as informações do banco de dados público PubChem e do Programa Nacional de Toxicologia dos Estados Unidos.

Em seguida, compararam as estruturas e propriedades toxicológicas, gerando um total de 50 trilhões de comparações e criando um vasto mapa de similaridade que agrupa compostos por estrutura e efeito. Finalmente, os cientistas testaram o modelo: eles pediram para prever o grau toxicológico de um produto químico escolhido aleatoriamente e compararam os resultados a seis testes em animais realizados com o mesmo composto.

Em média, a ferramenta computacional reproduziu em 87% os resultados dos testes em animais. O percentual é maior do que os próprios testes em animais, diz Hartung. Na revisão da literatura, seu grupo descobriu que os testes repetidos em ratos e coelhos reproduzem os resultados anteriores em apenas 81% dos casos. “Esta é uma descoberta importante”, afirma o pesquisador. “Nossos dados mostram que podemos substituir seis testes comuns –que respondem por 57% dos testes toxicológicos em animais do mundo– e obter resultados mais confiáveis.”

O resultado poderia ajudar a acabar com a repetição desnecessária de testes. A equipe descobriu, por exemplo, que 69 produtos químicos foram testados pelo menos 45 vezes no chamado “teste de coelho de Draize” –um método que gerou protestos da opinião pública por envolver o uso de um produto químico no olho de um coelho.

Mas o sistema de big data não é perfeito. Embora possa prever efeitos simples, como irritação na pele, casos mais complexos, como câncer, ainda estão fora de alcance, diz Mike Rasenberg, chefe da unidade de Avaliação e Disseminação Computacional da ECHA. “Esse não será o fim dos testes em animais”, prevê, “mas é um conceito útil para reduzi-los”.

A questão agora é como as agências reguladoras vão reagir ao novo método. Rasenberg diz acreditar que os europeus o aceitarão para testes simples porque atende a seus critérios de validação. Nos Estados Unidos, o centro NIEHS está trabalhando na validação do método.

Depois disso, a EPA poderá revisar os resultados da avaliação para determinar como e se eles podem ser usados. Se a avaliação for favorável, esses modelos poderão ser usados em conjunto com outras ferramentas para classificar um grande número de substâncias.

Hartung espera que o método de rastreamento também seja de interesse para os países que estão se preparando para implementar novas leis químicas, como a Turquia e a Coreia do Sul.

Astrônomos identificam origem de partícula que pode ajudar a contar a história do Universo

Equipe internacional de cientistas detecta fonte de neutrinos de alta energia; emissão das partículas subatômicas elementares encontradas no Polo Sul vem de um corpo celeste localizado a 3,7 bilhões de anos-luz da Terra, na Constelação de Órion.

Equipe internacional de cientistas detecta fonte de neutrinos de alta energia; emissão das partículas subatômicas elementares encontradas no Polo Sul vem de um corpo celeste localizado a 3,7 bilhões de anos-luz da Terra, na Constelação de Órion.

Astrônomos identificam origem de partícula que pode ajudar a contar a história do Universo

A cada segundo, cerca de 65 bilhões de neutrinos atravessam seu corpo e tudo o que está em volta na Terra sem deixar quase nenhum vestígio. Os cientistas já conheciam duas fontes dessa “partícula fantasma”: o Sol e as supernovas, que são as grandes explosões de estrelas gigantes. Agora, também foram detectados na Terra neutrinos vindos de um blazar –objeto celestial que concentra grande quantidade de energia e que está associado a um buraco negro.

Dois estudos publicados na revista Science nesta quinta-feira (12) trazem detalhes da descoberta. Os pesquisadores que participaram dos estudos analisaram dados coletados pelo observatório de neutrinos IceCube, localizado na Antártida.

Em 2013, o IceCube detectou um tipo de neutrino de alta energia. Os cientistas iniciaram então uma busca pela fonte dessa partícula. Em setembro de 2017, nova detecção revelou que a direção por onde chegavam os neutrinos na Terra é consistente com a posição do blazar TXS 0506+056. Esse objeto astronômico poderosamente energético produz um jato direcionado para a Terra enquanto seu material cai no buraco negro a ele associado.

Motivados por esta descoberta, os cientistas fizeram um levantamento de registros de neutrinos detectados pelo IceCube durante quase dez anos antes das recentes observações, encontrando diversos eventos vindos da direção onde está o blazar TXS 0506+056.

Partículas extremamente leves

Os neutrinos são partículas subatômicas muito mais leves que os elétrons e que interagem de maneira muito frágil com a matéria comum. Contudo, são abundantes no Universo. Além de se originarem no Sol, os neutrinos podem ser produzidos em reatores nucleares, em explosões atômicas e no decaimento de elementos radioativos.

No IceCube existem detectores de neutrinos enterrados em profundidades entre 1,5 km e 2,5 km. O estudo dos neutrinos é importante para que se possa entender questões fundamentais da composição do Universo, como sua massa, por exemplo.

Uma nova era de pesquisas especiais se inaugura nesta quinta-feira (12). Isso porque uma equipe internacional de astrônomos descobriu a fonte de neutrinos de alta energia encontrados no Polo Sul – e esta partícula misteriosa abre uma oportunidade para contar a história e esclarecer enigmas do próprio Universo.

A descoberta está na edição desta quinta da revista “Science” e foi divulgada em coletiva de imprensa na sede da National Science Foundation, em Alexandria, Virginia (EUA).

“Neutrinos de alta energia realmente nos fornecem uma nova janela para observar o Universo”, comenta o físico Darren Grant, da Universidade de Alberta, em entrevista à BBC News Brasil.

Astrônomos identificam origem de partícula que pode ajudar a contar a história do Universo

Cientistas acham fonte de “partículas fantasmas” que atravessam a Terra

Grant é um dos mais de 300 pesquisadores de 49 instituições que integram o grupo IceCube Collaboration – responsável pela descoberta. “As propriedades dos neutrinos fazem deles um mensageiro astrofísico quase ideal. Como eles viajam de seu ponto de produção praticamente desimpedidos, quando são detectados, podemos analisar que eles transportaram informações de sua origem.”

Os neutrinos são partículas subatômicas elementares, ou seja, não há qualquer indício de que possam ser divididas em partes menores. São emitidos por explosões estelares e se deslocam praticamente à velocidade da luz.

Instalado no Polo Sul e em operação desde 2010, o IceCube é considerado o maior telescópio do mundo – mede um quilômetro cúbico. Levou dez anos para ser construído e fica sob o gelo antártico.

O IceCube consiste em um conjunto de mais de 5 mil detectores de luz, dispostos em uma grade e enterrados no gelo. É um macete científico. Quando os neutrinos interagem com o gelo, produzem partículas que geram uma luz azul – e, então, o aparelho consegue detectá-los. Ao mesmo tempo, o gelo tem a propriedade de funcionar como uma espécie de rede, isolando os neutrinos, facilitando sua observação.

Partícula é segredo do Universo
Desde a concepção do projeto, os cientistas tinham a intenção de monitorar tais partículas justamente para descobrir sua origem. A ideia é que isso dê pistas sobre a origem do próprio Universo. E é justamente isso que eles acabam de conseguir.

Os pesquisadores já sabem que a origem de neutrinos observados na Antártica são um blazar, ou seja, um corpo celeste altamente energético associado a um buraco negro no centro de uma galáxia. Este corpo celeste está localizado a 3,7 bilhões de anos-luz da Terra, na Constelação de Órion.

“Eis a descoberta-chave”, explica Grant. “Trata-se das primeiras observações multimídia de neutrinos de alta energia coincidentes com uma fonte astrofísica, no caso, um blazar. Esta é a primeira evidência de uma fonte de neutrinos de alta energia. E fornece também a primeira evidência convincente de uma fonte identificada de raios cósmicos.”

Cientistas acham fonte de "partículas fantasmas" que atravessam a Terra

Astrônomos identificam origem de partícula que pode ajudar a contar a história do Universo

Conforme afirma o físico, a novidade é a introdução, no campo da astronomia, de uma nova habilidade para “ver” o universo. “Este é o primeiro passo real para sermos capazes de utilizar os neutrinos como uma ferramenta para visualizar os processos astrofísicos mais extremos do universo”, completa Grant.

“À medida que esse campo de pesquisa continua se desenvolvendo, também deveremos aprender sobre os mecanismos que impulsionam essa partículas. E, um dia, começaremos a estudar essa partícula fundamental da natureza em algumas das energias mais extremas imagináveis, muito além daquilo que podemos produzir na Terra.”

“Esta identificação lança um novo campo da astronomia de neutrinos de alta energia, e esperamos que traga avanços emocionantes em nossa compreensão do Universo e da física, incluindo como e onde essas partículas de energia ultra-alta são produzidas”, afirma o astrofísico Doug Cowen, da Universidade Penn State. “Por 20 anos, um dos nossos sonhos era identificar as fontes de neutrinos cósmicos de alta energia. Parece que finalmente conseguimos.”

Mapeando o desconhecido
Foram décadas em que astrônomos de todo o mundo procuraram detectar os chamados neutrinos cósmicos de alta energia, em tentativas frustradas de compreender onde e como essas partículas subatômicas são geradas com energias de milhares a milhões de vezes maiores do que as alcançadas no planeta Terra.

O IceCube conseguiu detectar pela primeira vez neutrinos do tipo em 2013. A partir de então, alertas eram disparados para a comunidade científica a cada nova descoberta. A partícula-chave, entretanto, só veio em 22 de setembro de 2017: o neutrino batizado de IceCube-170922A, com a impressionante energia de 300 trilhões de elétron-volts demonstrou aos cientistas uma trajetória.

“Apontando para um pequeno pedaço do céu na constelação de Órion”, relata a astrofísica Azadeh Keivani, da Universidade Penn State, coautora do artigo publicado pela Science. Tão logo a partícula foi identificada, de forma coordenada e automatizada, quatorze outros observatórios do mundo passaram a unir esforços para identificar sua origem, com telescópios de espectroscopia nuclear e observações de raio-X e ultravioleta.

Todos os dados gerados foram analisados pelo grupo internacional de cientistas até a conclusão de que a fonte era o buraco negro supermassivo a 3,7 bilhões de anos-luz da Terra.

Essa distância do planeta significa que as informações carregadas pelo neutrino são de 3,7 bilhões de anos atrás, supondo que o mesmo tenha viajado à velocidade da luz. Nesse ponto, compreender tais propriedades é como olhar para os confins do passado do Universo – atualmente, acredita-se que o Big Bang tenha ocorrido há 13,8 bilhões de anos.

Após concluir a origem do neutrino IceCube-170922A, os cientistas vasculharam os dados arquivados pelo detector de neutrinos e concluíram que outros 12 neutrinos identificados entre 2014 e 2015 também eram oriundos do mesmo blazar. Ou seja: há a possibilidade de comparar partículas com a mesma origem, aumentando assim a consistência da amostra.

De acordo com os cientistas do IceCube, essa detecção inaugura de forma incontestável a chamada “astronomia multimídia”, que combina a astronomia tradicional – em que os dados dependem da ação da luz – com novas ferramentas, como a análise dos neutrinos ou das ondas gravitacionais.

“É um campo novo, empolgante e veloz. Que proporciona aos pesquisadores novos insights sobre a maneira como o Universo funciona”, analisa o astrofísico Phil Evans, da Universidade de Leicester.

Google Duplex: entenda como o sistema de ligações por IA funciona

Google Duplex: entenda como o sistema de ligações por IA funciona

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google anunciou, durante o I/O 2018, a nova habilidade de sua assistente virtual: falar pelo telefone com seres humanos. Por meio de uma tecnologia chamada Duplex, a Google Assistente, em breve, será capaz de resolver pequenas tarefas do “mundo real” que exigem uma ligação.

O recurso, que mostra um passo largo no campo de inteligência artifical, promete facilitar a vida do usuário ao marcar compromissos, como uma hora no salão de beleza ou uma reserva em um restaurante. A tecnologia pode ser uma vantagem para pequenos negócios que não possuem um site ou sistema online de reservas.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Google Assistente será capaz de realizar ligações sem interferência humana (Foto: Ana Marques/TechTudo)

Segundo a empresa, o Google Duplex não consegue participar de qualquer conversa, mas está focado em realizar tarefas específicas pelo telefone de maneira muito natural. O sistema vai permitir que a pessoa do outro lado da linha fale normalmente, sem precisar se adaptar à máquina – como muitas vezes fazemos ao dar comandos de voz.

A complexidade da linguagem humana

Para atingir naturalidade e conforto nos diálogos, durante seu desenvolvimento, o Duplex foi explorado profundamente dentro de domínios fechados. De qualquer forma, a fala humana não tem nada de simples. Quando uma pessoa conversa com outra, ela fala rápido, se corrige no meio da frase, é prolixa, omite palavras confiando no contexto para entendimento e expressa intenções diversas dentro da mesma frase. No telefone, ainda há problemas com o som de fundo e a qualidade do áudio.

Por exemplo, ao ser questionado sobre os horários de um estabelecimento, um funcionário diz: “Então… ééé… de terça a quinta, a gente abre das onze da manhã até as duas da tarde, e depois reabre das quatro às nove. E aí na sexta, sábado, domingo… não, sexta e sábado abrimos de onze até nove e domingo de uma até nove horas.”

Google Assistente terá autonomia para marcar compromissos (Foto: Reprodução/TechTudo)

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

A inteligência artificial tem muitos desafios: entender a linguagem humana, imitar o comportamento natural, processar com rapidez as expectativas de tempo das respostas e gerar falas orgânicas, com as entonações certas. O Google promete grandes avanços em tudo isso.

Como o Duplex funciona

No cerne da tecnologia do Duplex, para lidar com esses desafios, está uma rede neural recorrente (RNN, na sigla em inglês) construída usando TensorFlow Estendido (TFX). A RNN é uma classe de rede neural artificial capaz de usar sua memória para processar uma sequência de dados fornecidos e agir dinamicamente ao longo de um período de tempo. O TFX é uma plataforma de propósitos amplos baseada no TensorFlow, estrutura de aprendizado de máquina – ou “machine learning” – de código aberto.

A rede neural do Duplex foi treinada com um banco de conversas telefônicas anônimas. Ela utiliza o resultado da tecnologia de reconhecimento automático de fala (ASR) do Google, bem como recursos do áudio, o histórico da conversa e seus parâmetros (como o serviço desejado para um compromisso ou a hora atual).

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Assistente virtual do Google poderá marcar compromissos pelo telefone sem interferência humana.

Para controlar a entonação da fala de acordo com a circunstância, é empregada uma combinação de dois mecanismos de conversão de texto para fala (TTS), um concatenativo e outro sintético. A adição de disfluências da linguagem oral, como “hummm” e “ééé”, também ajuda o resultado final a soar mais familiar e realista.

Outro ponto importante é atender às expectativas das pessoas quanto ao tempo de reação, o que varia de situação para situação. Se você diz “alô”, vai esperar do interlocutor uma resposta instantânea, pois não tem muito o que pensar. Nesse caso, o Duplex recorre a processos de menor confiança, mas mais rápidos. Enquanto isso, em certos cenários, como ao responder a frases longas e complexas, a IA aumenta o tempo de resposta.

O Google Duplex executa diálogos sofistificados de forma totalmente autônoma, mas também sabe reconhecer quando uma tarefa mais complicada está fora do seu alcance. Quando isso acontece, o sistema repassa a solicitação para um operador humano, que vai completar a tarefa. E para treinar o software em novas áreas de atuação, instrutores experientes o supervisionam trabalhando em tempo real. Conforme necessário, eles guiam os procedimentos e assim a IA vai aprendendo.

A nova tecnologia incorporada à assistente do Google vai permitir, inclusive, que o usuário faça um pedido a qualquer momento, mesmo que sua conexão esteja ruim ou que o lugar esteja fechado. Assim que for possível, o Duplex ligará para realizar a tarefa. A ferramenta pode também beneficiar pessoas com deficiência auditiva e viajantes que não falam a língua local.

Além disso, as ligações realizadas vão ajudar a tornar algumas informações acessíveis a todos, pela internet. Quando a IA ligar para saber os horários de funcionamento de um restaurante nos feriados, por exemplo, esse dado ficará disponível online.

Assistente ajuda usuário com tarefas do cotidiano (Foto: Divulgação/Google)

Google Duplex: entenda como o sistema de ligações por IA funciona

Questões éticas

O anúncio do Google Duplex foi recebido com muita surpresa e empolgação pela mídia e pelo público, mas alguns levantaram preocupações com a ética do recurso. Nas ligações de teste apresentadas no evento do Google, os atendentes parecem nem desconfiar que estão falando com um robô. Críticos da tecnologia questionaram todo esse realismo e a possibilidade de enganar um ser humano.

A companhia, porém, afirma que a assistente virtual vai se identificar durante as conversas, deixando claro que se trata de uma inteligência artificial fazendo a ligação. O Duplex ainda está em fase de testes e não há previsão de quando os usuários terão acesso.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em todas as áreas do conhecimento há uma separação entre quem é da área e quem é de fora, com percepções diferentes da realidade. A parte de inteligência artificial talvez seja a que mais gere uma percepção totalmente fora da realidade, com pessoas de fora achando que estamos a dois ou três updates do Chrome de criar a Skynet, e que robôs como o Atlas da Boston Dynamics estão prestes a quebrar seus grilhões e dominar o mundo.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Isso explica a reação geral a uma bobagem peça artística de Alexander Reben, um daqueles artistas modernos que diferem de acumuladores por de vez em quando se livrarem de parte de sua coleção por preços exorbitantes. Ele construiu uma trapizonga onde dá um comando de voz para o Assistente do Google, o equipamento reconhece o comando, aciona um solenóide, dispara uma arma de airsoft e mata uma maçã. Eis o vídeo:

Note que ele usou uma daquelas tomadas inteligentes e nem se preocupou em acionar momentaneamente o gatilho, depois do disparo o solenóide continua ativado, mas isso não importa.

O artista diz que usou peças que tinha jogadas pelo seu estúdio (não falei?) e que

“Parte da mensagem para mim inclui as consequências não-planejadas da tecnologia e a futilidade de considerar cada caso de uso”

Ele se apressou em explicar que usou uma arma mas o equipamento poderia perfeitamente acionar uma cadeira de massagem ou uma máquina de sorvete.

A discussão, nos comentários e em outros sites enveredou sobre quem seria responsável se a arma fosse de verdade e estivesse apontada para um humano. A rigor a culpa é óbvia, ele comandou o disparo, mas e se fosse algo aleatório, que a própria máquina decide?

O pessoal que faz campanha contra drones em geral não entende a tecnologia, acham que há autonomia ali, mas não reclamam de um avião convencional com um piloto. Na verdade os “drones” são aviões de controle-remoto glorificados, ao invés de um piloto estressado com medo de um talibã em seu dia de sorte com um míssil Igla, temos dois sujeitos num escritório refrigerado em Nevada, tomando refrigerante e selecionando os alvos com calma, sem stress.

Claro, de vez em quando eles se confundem e bombardeiam um casamento árabe mas quer saber? Nem dá pra culpar.

Drones no futuro terão autonomia? provavelmente, mas eu vou contar um segredo: Já era. Esse barco já partiu. Já temos máquinas que matam pra gente sem NENHUMA preocupação ética. O pesadelo dos luditas, máquinas assassinas que se rebelam e se tornam uma ameaça a todos os humanos foram criadas na China, no Século III provavelmente ou no X com mais certeza, foram as antepassadas dessas belezinhas aqui:

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

 

 

Minas terrestres continuam a matar décadas depois que os conflitos para os quais foram instaladas já foram esquecidos. Assim como foram as 73500 vítimas civis entre 1999 e 2009, gente de países pobres, crianças brincando ou indo pra escola, agricultores tentando tirar seu sustento da terra. Só no Vietnã a área interditada daria pra alimentar 12 mil famílias.

Aí vem um playboy de Internet dizer que medo mesmo tem de um robô com um software cheio de salvaguardas pra garantir que só acertará os caras maus?

Ah sim existe outra máquina que mata indiscriminadamente, sem intervenção humana: Arame farpado.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Em um mundo lindo e fofinho não precisaríamos matar ninguém, viveríamos em paz, de mãos dadas cantando Kumbaya, mas no mundo real todo mundo precisa se defender, e a tecnologia está cada vez mais eficiente. Ter medo dos avanços é crueldade, é dizer que você prefere mortes indiscriminadas. Hoje pulveriza-se um prédio enquanto as casas em volta no máximo perdem algumas janelas. Para conseguir os resultados do último grande ataque à Síria na Segunda Guerra seria preciso destruir a cidade inteira. Dessa vez foram 3 ou 4 prédios e zero vítimas civis.

Inteligência Artificial, sistemas especialistas, machine learning, têm se mostrado melhores do que humanos em um monte de tarefas, incluindo diagnosticar câncer de pele. Por quê o medo de usar a mesma tecnologia pra diferenciar amigos de inimigos? As chances de fogo amigo ou mortes de inocentes cairão bastante.

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Artista usa Assistente do Google para disparar arma e atiça debate inexistente

Exceto se a IA for desenvolvida pelas Indústrias Hammer.

A questão da responsabilidade? Isso foi decidido séculos atrás, se um escravo causa danos ou mata alguém, a responsabilidade é de seu dono, e as máquinas são (por enquanto) nossas escravas, vide a etimologia do termo “robô”.

Quando e SE robôs se tornarem sencientes, quando e SE robôs ganharam status legal de indivíduos, de novo o problema estará resolvido, a responsabilidade será deles. Só que aí eles decidirão se querem participar de nossas guerras ou não.

Nasa vai lançar nave para escavar o solo de Marte e estudar origem do planeta

Sonda espacial vai medir sinais vitais de Marte

Sonda espacial vai medir sinais vitais de Marte

Os instrumentos da Insight permitirão medir os “sinais vitais” de Marte.[Imagem: JPL/NASA]

A missão InSight, da Nasa, enviará a Marte a primeira sonda capaz de perfurar o solo e estudar o interior do Planeta Vermelho. O lançamento da sonda está programado para ocorrer neste sábado (5) às 6h05 da manhã. Segundo a Nasa, há uma probabilidade de 20% de que as condições meteorológicas permitam o lançamento.

A missão Exploração Interior com uso de Investigação Sísmica, Geodésia e Transporte de Calor (InSitght, sigla em inglês) colocará um módulo de pouso geofísico em Marte para estudar o interior do planeta.

Mas, segundo a Nasa, seu objetivo vai além disso: a sonda também estudará questões fundamentais da ciência dos planetas e do Sistema Solar, para que os pesquisadores compreendam os processos que levaram à formação dos planetas rochosos do Sistema Solar Interno – entre eles a Terra – há mais de 4 bilhões de anos.

Segundo a Nasa, missões anteriores enviadas a Marte investigaram a história da superfície do planeta a partir da análise de características de seus cânions, vulcões, rochas, montanhas e solo. Mas, até agora, nenhuma missão analisou a evolução inicial do planeta, que só pode ser estudada observando o subsolo.

Utilizando instrumentos geofísicos sofisticados, o módulo escavará a superfície marciana para detectar pela primeira vez as marcas dos processos de formação dos planetas rochosos e para medir os “sinais vitais” de Marte: seu “pulso” (sismologia), “temperatura” (fluxos de calor) e “reflexos” (rastreamento de precisão).

Para estudar o solo marciano, a InSight é equipada com diversos instrumentos operados por um braço robótico, incluindo sismômetros – que medem as ondas sísmicas provocadas por impactos de meteoros e por “martemotos” – e uma broca com uma sonda térmica, que irá perfurar o solo em até 5 metros e medir os fluxos de calor no interior do planeta.

Como Marte é geologicamente menos ativo que a Terra – ele não possui placas tectônicas, por exemplo -, o planeta mantém um registro mais completo de sua história em sua crosta, seu manto e seu núcleo. Ao estudar essas características, os cientistas poderão descobrir mistérios sobre os processos evolutivos de todos os planetas rochosos.

Antes da InSight, 14 missões já haviam sido enviadas a Marte. Nove delas foram lançadas pelos Estados Unidos, sendo que duas fracassaram, em 1999. Das demais missões – todas fracassadas – três foram lançadas pela União Soviética, uma pelo Reino Unido e uma por uma parceria entre as agências espaciais da Europa e da Rússia.

Costa Oeste

Pela primeira vez uma missão planetária será lançada a partir da costa oeste dos Estados Unidos. Em vez da tradicional base de lançamento do Centro Espacial Kennedy, na Flórida, a InSight será enviada a partir da Base Vandenberg da Força Aérea Americana, localizada na região de Santa Bárbara, na Califórnia.

No lançamento, será utilizado o foguete Atlas V, da United Launch Alliance, uma joint venture das empresas Lockheed Martin e Boeing. Além da InSight, o foguete levará ao espaço também o experimento tecnológico Mars Cube One (MarCO).

Composto por duas miniespaçonaves, o MarCO testará pela primeira vez no espaço profundo uma tecnologia de CubeSat, termo que remete às palavras “cubo” e “satélite” em inglês. Esse tipo de satélite miniaturizado – ou nanossatélite – é em geral utilizado para pesquisas espaciais acadêmicas. Os dois pequenos equipamentos foram desenvolvidos para testar novas tecnologias de comunicação e navegação para missões espaciais.

A missão InSight é parte do Programa Descoberta, da Nasa. A nave – incluindo o estágio de cruzeiro e o módulo de pouso – foi construída e testada pela Lockeed Martin Space, em Denver, Nos Estados Unidos. O programa tem participação de várias instituições europeias, como a Agência Espacial Francesa, o Centro Nacional de Estudos Espaciais da França e o Centro Aeroespacial da Alemanha.

Pesquisadores encontram a estrela mais distante do universo

Uma equipe internacional de pesquisadores encontrou a estrela mais distante já vista, a nove bilhões de anos-luz da Terra, segundo um estudo publicado nesta segunda-feira pela revista “Nature Astronomy”.

ESTRELA MAIS DISTANTE - Pesquisadores encontram a estrela mais distante já vista, a nove bilhões de anos-luz da Terra, que foi batizada de Icarus (um fenômeno conhecido como lente gravitacional, no qual um objeto amplia a luz dos

Pesquisadores encontram a estrela mais distante do universo.

Enquanto os astrônomos observavam com o Telescópio Espacial Hubble o aglomerado de galáxias MACS J1149+2223, a cinco bilhões de anos-luz de distância, notaram uma luz ao fundo da imagem.

A equipe, liderada pelo pesquisador Patrick Kelly da Universidade de Berkeley (Califórnia), nomeou a estrela supergigante azul de Icarus, cujo brilho foi ampliado duas mil vezes pela gravidade do aglomerado de galáxias.

Essa gravidade reduziu o espaço-tempo para magnificar a imagem de Icarus, um fenômeno conhecido como lente gravitacional, no qual um objeto amplia a luz dos objetos cósmicos situados diretamente atrás deles.

A descoberta é interessante porque as estrelas individuais, ao contrário das galáxias, são difíceis de serem detectadas devido à luz fraca.

Além disso, o descobrimento de Icarus é importante para os pesquisadores que estudam a matéria escura porque sua interação com a matéria tem um efeito considerável no padrão de estrelas ampliadas.

A partir do padrão de estrelas magnificadas neste estudo, a equipe de cientistas, formada também por pesquisadores da Universidade de Tóquio, puderam excluir a possibilidade que a matéria escura seja formada principalmente por uma grande quantidade de buracos negros com massas dezenas de vezes maiores que o Sol.

Os astrônomos determinaram que ainda descobrirão muitas estrelas magnificadas quando entrar em funcionamento o Telescópio James Webb, propriedade da Nasa, da Agência Espacial Europeia e da Agência Espacial do Canadá.

Escudo térmico em sonda para Marte em 2020 é danificado em teste; data de lançamento não é afetada

Lançamento da missão segue programado para 17 de julho de 2020, segundo informações da NASA.

Escudo térmico em sonda para Marte em 2020 é danificado em teste; data de lançamento não é afetada

Marte é um planeta de condições extremas: as temperaturas vão de -80°C a 20°C (Foto: Nasa)

Um escudo térmico usado em uma sonda da Nasa projetada para enviar um veículo de seis rodas à Marte em 2020 sofreu uma avaria “inesperada” durante um teste estrutural neste mês, levando a agência espacial a montar um substituto, disse a agência espacial norte-americana.

“A situação não afetará a data de prontidão do lançamento da missão em 17 de julho de 2020”, disse a Nasa em um comunicado.

A avaria ocorreu perto da borda externa do escudo e abrange a circunferência do componente, segundo a Nasa.

A missão de US$ 2 bilhões (cerca de R$ 6,9 bilhões) colocará o veículo de exploração espacial em Marte, onde ele perfurará pedras e o solo em busca de sinais de vida microbiana passada. A missão também procurará formas de apoiar uma missão tripulada ao planeta.

O momento do lançamento é fundamental. Em julho e agosto de 2020 as posições da Terra e de Marte estarão alinhadas de uma forma que significará que menos energia será necessária para alcançar o planeta vermelho em comparação com outras épocas.

O escudo térmico da sonda Marte 2020 atingirá temperaturas de cerca de 2.100 graus Celsius, com velocidades de mais de 19.550 km/h em direção à superfície de Marte, disse a Nasa.

 

 

 

 

 

Pela 1ª vez, cientistas observam mega fusão de 14 galáxias ao mesmo tempo

Feito foi publicado nesta quarta-feira (25) na revista ‘Nature’. Algumas das 14 galáxias estão formando estrelas até 1.000 vezes mais rápido que a Via Láctea.

ILUSTRAÇÃO DAS 14 GALÁXIAS IDENTIFICADAS PELOS CIENTISTAS (FOTO: NRAO/AUI/NSF; S. DAGNELLO)

Pela 1ª vez, cientistas observam mega fusão de 14 galáxias ao mesmo tempo
Feito foi publicado nesta quarta-feira (25) na revista ‘Nature’. Algumas das 14 galáxias estão formando estrelas até 1.000 vezes mais rápido que a Via Láctea.

Uma equipe internacional de cientistas descobriu uma concentração de 14 galáxias que estão prestes a se fundir. A megafusão foi publicada nesta quarta-feira (25) na revista “Nature” e está localizada a 12,4 bilhões de anos-luz de distância. Pela 1ª vez, cientistas conseguiram observar o processo em formação.

A aglomeração deve se tornar um dos elementos mais massivos do universo moderno, sendo 10 trilhões de vezes superior à massa do Sol. Ainda, galáxias dentro do aglomerado estão produzindo estrelas a um ritmo incrível, relatam os autores. Algumas das 14 galáxias estão formando estrelas até 1.000 vezes mais rápido do que a Via Láctea.

“Com o tempo, as 14 galáxias que observamos irão parar de formar estrelas e se aglutinar em uma única galáxia gigantesca”, afirmou Scott Chapman, astrofísico da Universidade Dalhousie (Canadá), em nota.

“O fato de que isso está acontecendo tão cedo na história do universo representa um desafio para a nossa compreensão atual do modo como as estruturas se formam”, continuou o especialista.

Cientistas pontuam que, na história do universo, a matéria começou a se aglomerar em concentrações cada vez maiores, dando origem às galáxias. Já as aglomerações de galáxias, por sua vez, são conhecidas como “protoclusters” e modelos computacionais atuais indicavam que aglomerados tão grandes quanto os observados agora poderiam ter demorado muito mais para evoluir.

“Como essa galáxia ficou tão grande tão rapidamente é um mistério”, diz Tim Miller, candidato a doutorado na Universidade de Yale (EUA) e coautor do estudo, em nota.

Os astrônomos perceberam que as galáxias estão em processo de fusão pela alta massa em um espaço confinado. Um outro ponto é a alta taxa de formação de estrelas, que fornece evidências para a fusão.

Importância do achado

A observação desses processos no universo podem fornecer descobertas interessantes para a ciência. É sabido, por exemplo, que esses aglomerados de galáxias transbordam um gás superaquecido que pode atingir temperaturas de 1 milhão de graus celsius.

 

Uma hipótese apresentada para o porquê de haver esse gás é que, com a velocidade de formação das estrelas nesse aglomerado, há a emissão de gás quente. Como esse gás não é denso o suficiente para formar estrelas, ele acaba sendo emitido dentre os espaços vazios nas galáxias.

A observação do aglomerado de galáxias foi possível com a utilização do radiotelescópio ALMA (Atacama Large Millimeter/submillimeter Array). Localizado no deserto do Atacama (Chile), o instrumento foi construído por meio de uma colaboração internacional e é atualmente o maior radiotelescópio do mundo.

Nasceu o primeiro “bebê” da inteligência artificial

Uma inteligência artificial desenvolvida por pesquisadores do Google teve seu primeiro “bebê” no final do ano passado. Esquisito? A gente tenta explicar. A AutoML, como foi chamada, foi criada para gerar outras inteligências artificiais, para simplificar o trabalho dos pesquisadores do Google Brain, o braço da empresa focado em pesquisas do tipo.

Nasceu o primeiro "bebê" da inteligência artificial

Nasceu o primeiro “bebê” da inteligência artificial

Para programar, eles eram obrigados a fazer manualmente as redes de aprendizado das máquinas, um trabalho complexo que demandava um tempo considerável de engenheiros e cientistas especializados no assunto. Ou seja, humanos sempre deveriam ajudar a máquina a aprender suas tarefas.

A solução foi criar um tipo de inteligência artificial capaz de propor modelos para novas inteligências artificiais. Os “bebês” então são treinados e avaliados pela “mãe” para suas próximas tarefas, sem a ajuda de humanos.

 

Após milhares de testes iniciais, o AutoML já havia desenvolvido modelos de reconhecimento de imagem com uma qualidade equivalente à dos frutos do trabalho dos especialistas.

Até que, em novembro, nasceu a NASNet, o primogênito. Ele surgiu com capacidades superiores a programas desenvolvidos e programado por humanos. E a NASNet tinha o comportamento parecido com o de uma criança: ficava testando soluções para seus problemas e era corrigido e guiado pela mãe AutoML

Nasceu o primeiro "bebê" da inteligência artificial

Inteligência reconhece pessoas, pipas e outros objetos em foto.

Inteligência reconhece pessoas, pipas e outros objetos em foto

Assim, o “bebê” é capaz de identificar imagens com um aproveitamento melhor do que o apresentado pelos modelos criados por humanos – com acerto de 82,7% em sua forma completa. Outra vantagem de ter uma inteligência artificial criada por outra máquina é que ela pode ser ajustada para plataformas móveis e continuar produzindo resultados 3% melhores do que os modelos mais modernos já criados por humanos.

Ainda assim, a AutoML não foi uma mãe completamente independente, e precisou de uma ajudinha dos pesquisadores. Ela passou por alguns ajustes em suas configurações de pesquisas e contou com uma busca manual em bancos de imagens. Desta forma, os pesquisadores adaptaram a AutoML para lidar com grandes bases de dados, algo que ela não estava preparada originalmente.

Após apresentar os resultados do projeto, o Google disponibilizou publicamente a NASNet a outros pesquisadores que trabalham com aprendizado de máquinas.

“Esperamos que a comunidade de aprendizado de máquinas será capaz de trabalhar em cima desses modelos para lidar com um grande número de problemas de visão computacional que podemos não ter imaginado”, publicou a empresa em seu blog.