CONFIRA AS PROMOÕES DO DIA:

quinta-feira, 17 de novembro de 2011

Robô aprende o que é certo e errado como uma criança

Pesquisadores da Universidade de Tsukuba, no Japão, desenvolveram um novo sistema de reconhecimento facial para robôs que define o que é certo ou errado. O sistema funciona com um suporte preso à cabeça do pesquisador para detectar se a pessoa está rindo ou não, como uma forma de aprovação ou reprovação das ações do robô. Depois, o sistema envia estes algoritmos para o robô, que reprograma suas ações de acordo com os estímulos da recepção humana.

De acordo com as feições da pesquisadora, o robô solta ou não uma bolinha. (Foto: Divulgação)
Anna Gruebler e seus colegas pesquisadores dizem que esta nova tecnologia é mais avançada do que outras semelhantes já lançadas, pois ela funciona em locais com pouca luz, enquanto a pessoa anda ou até mesmo sem a necessidade de estar na visão da câmera do robô. Ou seja, o dispositivo acoplado à cabeça, além de não utilizar eletrodos presos ou fios, oferece uma resposta certeira para o receptor.
 
O dispositivo funcionou em 97% das tentativas e foi demonstrado em vídeo na Conferência Internacional de Robôs Humanoides de 2011, na Eslovênia. Na ocasião, o robô é colocado em uma situação de preferência. De acordo com as feições de uma pessoa, ele solta ou não uma bolinha. De início, o robô é um pouco lento e hesita bastante. No entanto, a medida que o treino e o reconhecimento facial ocorre, ele responde com mais rapidez.
De acordo com os especialistas, o método do sistema é similar ao ministrado por pais para ensinar crianças o que é certo ou errado. O próximo passo, segundo Anna Gruebler e sua equipe, é aplicar o dispositivo em outras situações. Só não sabemos ainda para que tipo de funções estes cientistas imaginam testar o dispositivo.
No vídeo, é mostrado como o robô interage com a pesquisadora.

Robô de telepresença Telesar V transmite visão, audição e tato entre pessoas

O professor professor Tachi da Keio University, no Japão, vem trabalhado em uma espécie de robô-avatar. O Telesar V é uma máquina que pode ser controlada remotamente e ainda transmitir sensações como tato, visão e audição à distância.

Mais do que uma maravilha tecnológica, o equipamento pode ser de extrema importância na medicina. Um médico pode chegar a diagnósticos acurados a partir daquilo que o paciente relata, mas sem dúvida a chance de chegar lá é muito maior se o médico for capaz de sentir como o paciente.
O Telesar adota o princípio chamado de “telexistência”. Para que alguém possa sentir, ver e ouvir com este avatar, é preciso vestir uma parafernália que o coloca em conexão com o robô. Conforme ele toca superfícies, o usuário é capaz de sentir a temperatura e as formas dos objetos. Ele também reproduz os sons que ouve e aquilo que enxerga em um visor 3D.
A visão ainda é relativamente ruim. O equipamento distingue formas vagas, sendo capaz de identificar pouco dos objetos. Em todo caso, a experiência oferecida pelo Telesar V é muito mais elaborada do que outras iniciativas no campo da telexistência, em que os protótipos tinham pequena capacidade de “sentir e transmitir”.
Um robô como o Telesar ainda pode ser destinado para o entretenimento. Além de jogos que coloquem o usuário realmente dentro da história – seja um emocionante RPG ou um explosivo jogo de tiro – há a opção de que, quem sabe, um dia você possa fazer mais do ver um bom filme, mas sim vivê-lo em todas as suas emoções e experiências.
No vídeo, um pouco do funcionamento do Telesar V:

quarta-feira, 16 de novembro de 2011

Cientistas propõem um robô por aluno

Primeiro foi a campanha "um computador para cada criança". Agora começam surgir as propostas para tentar emplacar "um robô para cada estudante".
Robô Cooperativo:
"Eu defendo um currículo onde cada estudante tenha seu próprio robô e possa estudar lições individuais e também trabalhar em equipe, usando seus robôs coletivamente em sistemas multi-robóticos," propõe James McLurkin, da Universidade Rice, nos Estados Unidos.
McLurkin virou estrela em 2003, ao ganhar o "Oscar dos Inventores" por unir biologia e robótica, programando pequenos robôs para que eles desempenhassem tarefas similares às das abelhas e das formigas.
Agora, já professor, ele apresentou seu primeiro grande projeto, uma plataforma robótica de baixo custo chamada R-One.
Apaixonado por insetos e robôs, ele desenvolveu o R-One para atuar tanto como "indivíduo" quanto como um membro de uma "sociedade cooperativa de robôs".
E ele não leva a coisa na brincadeira: "Enxames de robôs trabalham coletivamente, como uma colônia de formigas ou abelhas, e podem fazer algumas tarefas melhor do que os humanos".
Segundo ele, um exército de 1.000 pequenos robôs poderia lidar com grandes vazamentos de petróleo no mar ou encontrar sobreviventes em grandes áreas afetadas por desastres naturais.
Seu primeiro protótipo de robô cooperativo custou US$2.000,00, caro demais para ser adotado em larga escala.
Agora, o R-One custa US$200,00 - o nível que McLurkin acredita ser razoável para viabilizar uma adoção em massa dos robôs nas escolas.
Ele está criando uma empresa e planeja colocar o R-One à venda, na forma de kit, em 2012.
Cientistas propõem um robô por aluno
Mesmo sem as capacidades cooperativas do R-One, o pequeno robô tem mais do que o suficiente para manter estudantes ocupados por um bom tempo. [Imagem: CMU]
Robô Passarinho:
Tom Lauwers e seus colegas da Universidade Carnegie Mellon estão mais adiantados em termos de mercado.
Seu pequeno robô Finch (passarinho) já está à venda, por US$99,00 cada um.
O Finch inclui sensores de temperatura e de luminosidade, um acelerômetro de três eixos, sensor de colisão, LEDs coloridos programáveis, câmera, microfone e alto-falantes.
Mesmo sem as capacidades cooperativas do R-One, o pequeno robô tem mais do que o suficiente para manter estudantes ocupados por um bom tempo.
"Nossa visão é tornar o Finch acessível o suficiente para que cada aluno possa ter um para fazer suas lições de casa," afirma o pesquisador Lauwers.
Mas o foco de Lauwers é mais a programação de computadores do que a robótica propriamente dita.
A ideia é usar o robô para tornar as aulas de programação mais interessantes, sem que os alunos precisem construir o robô, podendo se concentrar em fazer com que ele desempenhe tarefas úteis ou interessantes.
"Se o Finch puder ajudar a motivar os alunos para prestar atenção à ciência da computação, acreditamos que muitos mais jovens vão perceber que este é um campo muito divertido de se explorar," conclui o pesquisador.[Fonte: Inovação Tecnológica]

sexta-feira, 7 de outubro de 2011

Brasileiro faz macaca mover robô usando apenas o pensamento

“Um pequeno passo para um robô e um grande salto para um primata”. Foi assim que o neurocientista brasileiro Miguel Nicolelis resumiu para o jornal americano “The New York Times” a pesquisa em que conseguiu fazer uma macaquinha nos Estados Unidos mover um robô do outro lado do mundo, no Japão, apenas com a força do pensamento.

O feito de Nicolelis traz esperança de uma revolução na área de próteses para amputados. E se conseguir isso foi complicado, o princípio da coisa é fácil de entender. Ninguém pensa antes de fazer coisas como andar, pular ou pegar um objeto. Quando você pegar o mouse para ler a continuação deste texto mais para baixo, não vai pensar “eu quero esticar o braço, pegar o mouse, movimentar meu dedo e apertar o botão”. O ato é tão automático quanto o pensamento. Você nem pensou e já fez.

É essa naturalidade que o brasileiro tenta repetir com as próteses. A idéia é que quem precise usar um braço ou uma perna artificial não tenha que “aprender”: pense em andar e ande. 

Antes, é claro, é preciso descobrir como o cérebro faz tudo isso. E é aqui que entra o grande avanço feito pelo cientista e divulgado nesta semana. Na quinta-feira passada, em seu laboratório na Universidade Duke, nos Estados Unidos, Nicolelis conseguiu fazer a macaquinha Idoya mover, apenas pensando, o passos de um robô que estava no Japão. Idoya estava parada.

Tudo começou quando a equipe do brasileiro treinou a pequena macaca para andar em duas patas em uma esteira. Durante dois meses e três vezes por semana, ela caminhou a diversas velocidades, para frente e para trás, por 15 minutos diários. Enquanto o treinamento ocorria, eletrodos no cérebro de Idoya mostravam aos cientistas que neurônios agiam durante cada um dos movimentos.

Um vídeo do movimento do animal foi combinado com o registro da atividade cerebral. Tudo isso criou um “manual de instruções” que podia ser lido por um computador.

Quando Idoya foi fazer seu exercício na semana passada, todas as informações retiradas dos eletrodos em seu cérebro foram passadas, pela internet, em alta velocidade, para o robô, localizado na cidade de Kyoto, no Japão, capaz de imitar o movimento de seres humanos.
A missão da macaquinha era complicada: ela deveria manter o robô se movendo com a sua atividade cerebral. Para isso, ela via as costas dele em uma tela colocada bem em frente a sua esteira. Toda vez que conseguia fazer o robô imitar seus movimentos, ganhava um presente, em forma de comida.

Tudo certo, Idoya andava, o robô andava. Cada vez mais concentrada, no entanto, ela foi surpreendida quando sua esteira foi desligada. E aí, aquilo que os cientistas esperavam, parada, sem andar, focada, ela manteve o robô em movimento por quase três minutos apenas pensando.

Segundo Nicolelis, o feito mostra o poder da visão sobre o cérebro. Ao ver o robô se mexendo a sua frente da mesma maneira que ela, o cérebro de Idoya começou a absorver a idéia de que aquelas pernas eram dela.

Dentro de um ou dois anos, o brasileiro vai tentar descobrir se o mesmo feito de Idoya pode ser repetido por um ser humano. Se for possível, o leque de possibilidade fica muito amplo. Não apenas poderemos controlar próteses a distância, mas basicamente qualquer coisa, como computadores e máquinas.

Os brasileiros devem ser os primeiros a se beneficiar dessa tecnologia. A universidade onde Nicolelis trabalha, a Duke, o laboratório em Kyoto que controla o robô, a Associação Alberto Santos Dumont para o Apoio à Pesquisa, em Natal, e o hospital Sírio Libanês, em São Paulo, estão se organizando em uma iniciativa voltada para que um brasileiro paraplégico ou quadriplégico seja o primeiro a se beneficiar dessa tecnologia. O “Walk Again Project” (“Projeto Caminhe Novamente”) está sendo estabelecido e promete esperança para quem sofre com o problema no país.



Em trabalho de brasileiro, macaca sente 'textura' usando braço virtual

Uma macaca de laboratório, usando um braço virtual controlado pelo cérebro, é capaz não apenas de encostar em objetos, mas também de sentir aquilo que ela está tocando. O feito é fruto do trabalho do neurocientista brasileiro Miguel Nicolelis, professor da Universidade Duke, nos EUA, e foi apresentado nesta quarta-feira (5) na prestigiada revista científica britânica Nature.
Nicolelis já pesquisa há anos a possibilidade de usar as descargas elétricas do cérebro para mover objetos externos ao corpo. Nessa linha, já conseguiu feitos expressivos, como fazer uma macaca nos EUA comandar os movimentos de um robô que estava no Japão. Esse sistema é chamado de “interface cérebro-máquina”.

Desde então, sua equipe vem procurando fazer com que o cérebro obtenha algum retorno tátil nos movimentos com esse objeto remoto, como acontece no corpo, onde a pele manda informações de volta para o cérebro. Você encosta em algo e sabe dizer se é liso ou áspero, por exemplo. Assim, a “interface cérebro-máquina” se transformaria em “interface cérebro-máquina-cérebro”, uma via de mão dupla.

Parece coisa de ficção científica? O brasileiro concorda. “Vários filmes de ficção científica já trabalharam a ideia. Para nós, é mais lento, porque fazemos a ciência de verdade”, disse Miguel Nicolelis ao G1.

A pesquisa
Em treinamentos anteriores, os cientistas haviam ensinado macacos a operar joysticks que moviam um cursor numa tela e, quando esse cursor era posicionado na posição desejada, os animais recebiam uma dose de suco de fruta como recompensa. Enquanto isso, a frequência cerebral era medida por eletrodos colocados dentro do crânio dos animais.
Certo tempo depois, o joystick foi afastado, e os sinais enviados pelo cérebro eram usados para controlar um braço mecânico que moveria o joystick. No fim, o joystick foi retirado, e a frequência cerebral bastava para mover o cursor.
Na atual pesquisa, uma tela com três objetos visualmente idênticos foi colocada, e as macacas deveriam mover uma mão virtual por ela -- apenas pensando no movimento. Quando a mão virtual passava por esses objetos, diferentes sinais elétricos – chamados de “texturas artificiais” – eram enviados ao cérebro.
Um deles não enviava sinal nenhum; outro enviava um sinal com 400 Hz de frequência e mais nada; o terceiro enviava um sinal de 200 Hz e resultava em uma dose de suco de fruta como recompensa para a macaca.
Os animais aprenderam a diferenciar e interpretar esses sinais enviados ao cérebro e passaram a procurar – tateando com a mão virtual – pelo objeto que lhes daria a recompensa. [Fonte: G1]



'Sexto sentido'
"Nós, na verdade, criamos um sexto sentido: o tato virtual", afirma Nicolelis.
Segundo ele, o mecanismo é semelhante ao tato normal, pois ativa a mesma região do cérebro -- o córtex somatossensorial --, mas não é idêntico, já que o sinal não veio de um dos membros da macaca.
"A gente não sabe, mas ele deve ter tido uma experiência tátil diferente da normal", diz o pesquisador.
De toda forma, a reação do animal ao tato artificial foi a mesma que ele apresentou ao tato normal. Antes dos testes com o braço virtual, os cientistas tinham feito a experiência da recompensa com objetos realmente palpáveis.
"Todos os parâmetros comportamentais foram muito parecidos", explica Nicolelis.
Passos próximosO grande objetivo do cientista é fazer com que tetraplégicos recuperem os movimentos do corpo -- um projeto chamado de "Walk Again" ("andar novamente", em inglês). Isso seria feito por meio de um exoesqueleto que envolveria o corpo como uma roupa. O cérebro então enviaria sinais para essa roupa, que comandaria os movimentos do paciente.
Segundo Nicolelis, os membros virtuais -- ou "avatares" -- servem como preparação para a tecnologia futura. "A lógica é a mesma porque esse avatar é parte de um simulador. É um treinamento para o exoesqueleto", explicou.
Não é mais uma questão de saber se vai ou não acontecer; é uma questão de saber quando vai acontecer"
Francisco Rotta, Academia Brasileira de Neurologia
O pesquisador disse que a recente conquista era um "passo essencial" para seguir o projeto. Nos próximos meses, ele acredita que publicará mais pesquisas nesse sentido, mostrando a atuação do tato artificial nos dois braços, nas pernas e, eventualmente, num avatar de corpo inteiro.
‘Grande avanço’
“Pode parecer um pequeno passo, mas é um grande avanço”, afirmou Manoel Jacobson, neurocirurgião do Hospital das Clínicas da Universidade de São Paulo. Se o objetivo de Nicolelis é usar o cérebro para controlar movimentos de objetos externos, o tato é fundamental, ele explicou.
Você, enquanto lê essa reportagem, está segurando o mouse – e não o esmagando – porque conhece o material que o compõe e leva isso em conta, ainda que inconscientemente, na hora de manuseá-lo.
A pesquisa atual representa um tato artificial, mas os neurologistas acreditam que uma importante barreira foi rompida e que o dia em que braços mecânicos ou virtuais poderão tatear vai chegar.
“Não é mais uma questão de saber se vai ou não acontecer; é uma questão de saber quando vai acontecer”, cravou Francisco Rotta, vice-coordenador do departamento de Moléstias Neuromusculares, da Academia Brasileira de Neurologia.
“Eu acho que as aplicações vão muito além só da neurologia”, completou Rotta. Para ele, além do objetivo natural do desenvolvimento de próteses móveis para membros amputados, será possível elaborar novas maneiras de se operar em áreas de risco, como uma usina nuclear após um acidente, sem colocar os trabalhadores em perigo.[Fonte: G1]

terça-feira, 23 de agosto de 2011

Nova 'pele artificial' permitirá que robôs tenham sensibilidade nas mãos



Cientistas norte-americanos divulgaram no domingo (12) que conseguiram desenvolver um sistema composto por milhares de semicondutores sensíveis que identificam diversos níveis de pressão. A 'pele artificial' permite que robôs possam 'sentir' e, desse modo, segurar objetos frágeis como um ovo sem quebrá-lo até itens pesados como uma frigideira. O sistema é tão sensível que a 'pele artificial' identifica o peso de uma borboleta.(Foto: Linda Cicero/Stanford University/Handout/Reuters ) [Fonte: G1]