Segundo Modelo

postado em: Blog, Destaques, Processos | 0

Devido aos problemas encontrados no primeiro modelo, refizemos a estrutura do terrário focando em encaixes com ângulos de 90 graus, assim são dispensados acabamentos após o recorte na máquina a laser. A nova estrutura é composta por três módulos: base, cerca e hastes.

1

 

A base mantem sua forma pentagonal, e possui rasgos de encaixe para as hastes que servem de estrutura para segurar a lâmpada, mangueiras e leds, etc.

based base

As faces desta base não são fechadas, seguem uma estrutura tipo cerca com quatro módulos pentagonais vazados que serão encaixados em serie nas hastes.

cercajpg cercad2

 

O conjunto de cinco hastes iguais sustenta todo o terrário.

hastes hastesd

Próxima etapa é realizar os testes físicos desse novo modelo e fazer os ajustes necessários.

 

proposta de software: osc flow

postado em: Blog, Processos | 0

Proposta de software com interface grafica que funciona em conjunto com o OscGroups, servindo de camada para mapear mais facilmente os processos listados em endereço osc para endereços simples como /a /b /c /, baseado no funcionamento de softwares como Osculator, que faz o mapeamento entre dados OSC e MIDI.

Da mesma maneira como o OscGroups, voce recebe e envia mensagens via endereço local (localhost ou 127.0.0.1). Possivelmente vamos mudar as portas padrão do patch, pois esse software ficaria nas portas 22243 e 22244 utilizadas pelo OscGroups, e no PD, MAX, Processing e afins você usaria as portas 9998 (envio) e 9999 (recebimento).

Como esse software ficará no meio da comunicação OSC, ele terá a informação dos dados selecionados e envia esses dados de volta pra rede (um ping de 1 em 1 segundo, pra não sobrecarregar).

ex: (/kiko/listening/a <=> /terrario/luz)

Com isso será possível tanto o multicast de dados quanto a informação para a visualização de dados mais detalhada, com os pontos conectados entre si.

As conexões perdidas ficam de outra cor pra avisar o usuário, que decide se mantém o link para esperar voltar o sinal, ou muda para outro endereço. Mas depois de 1 min sem resposta, os endereços inativos saem da lista.

nano-osc-flow-monitor

teste de head tracking 01

postado em: Blog, Processos | 2

Detecção de faces utilizando a biblioteca FaceTracker no openFrameworks e a openCV no Processing.

O objetivo é mudar a perspectiva de um cenário virtual de acordo com a posição do rosto do interator, a fim de criar uma situação 3D mais imersiva e responsiva sem utilização de óculos especiais.

Para um primeiro teste o resultado foi bom. Acho que o FaceTracker não será usado pela funcionalidade – mas as linhas de contorno no rosto são interessantes…


Referências

Em 2007 um vídeo com um experimento de head tracking utilizando controle do Wii, de Johnny Chung Lee, ficou bem conhecido. A sensação de paralax e profundidade é incrível, mesmo para quem está assistindo pelo vídeo (pois ele adapta o sistema a uma câmera e simula nossa visão). Mas este sistema não funciona apenas com um controle de Wii. É preciso que o interator utilize 2 leds infravermelho para que o controle capte os sinais.

Alguns experimentos deste tipo já foram feitos com Kinect. A vantagem é não precisar que o interator utilize acessórios extras, como nos experimentos de Chung Lee.

No vídeo abaixo o head tracking foi feito apenas com uma PSEye.


Insights

Um desafio para esta primeira fase da pesquisa é conseguir o mesmo resultado utilizando apenas uma webcam simples. O segredo provavelmente está nos cálculos espaciais: posição da câmera em relação a tela, tamanho da tela, abertura da lente da câmera, detecção facial e seu posicionamento em relação a tela. Para a detecção da face ser mais precisa é essencial que a câmera tenha foco automático.


Fontes

O código fonte do teste no Processing pode ser acessado aqui:

Abaixo uma série de links úteis para a pesquisa:

 

Testes de interação

postado em: Arquivo, Blog, Videos | 4

No sábado, dia 25 de fevereiro, nos reunimos para testar as novas interações do Hiperorganismo que vai ser exposto no evento VIVO ARTE.MOV entre 29 de fevereiro e 2 de março de 2012. A meta era aplicar três interações: o movimento do pescoço do robô deveria seguir o interator, de acordo com o reconhecimento de rosto; a visualização da aproximação do interator que deveria ser projetada na barriga do robô e a sonoridade do robô também de acordo com a aproximação do interator.

O Robô possui duas entradas de dados, uma referente ao sensor de aproximação, que fornece os dados para a visualização e sonorização do robô. A outra referente que são as imagens capturadas na câmera – o olho do robô – que permite o reconhecimento de faces no OpenCV. Usamos dois computadores para realizar tudo. O principal que recebe e envia os dados para o Arduino, e processa a imagem para o reconhecimento de faces, este só envia os dados de aproximação via OSC para o o segundo computador que gera a visualização e que também está conectado ao projetor interno do robô.

Ao longo do dia cada um foi ajustando a sua parte. A visualização desenvolvida no Processing por Barbara Castro, por exemplo, teve de aumentar o tamanho das partículas e selecionar apenas a cor verde, pois dava mais contraste em um ambiente que não está completamente escuro, como deve ser o da exposição. Testamos uma variação linear e uma radial de disposição das partículas, a primeira faria uma faixa de luz em volta da lanterna japonesa, a segunda (selecionada) forma um círculo. O recuo das partículas parecia muito acelerado, porém quando testamos com o som desenvolvido no Pure Data pela mexicana Leslie Garcia que combinou, mesmo assim ainda faltam pequenos ajustes.