Mudanças entre as edições de "Hibrida/Simulador de Sinestesia"

De Garoa Hacker Clube
Ir para navegação Ir para pesquisar
(Criou página com 'teste')
 
Linha 1: Linha 1:
  +
[http://www2.eca.usp.br/hibrida/index.php/projetos-selecionados/simulador-de-sinestesia/ Link para a página do projeto no site do Hibrida]
teste
 
  +
  +
==Pré-Hibrida==
  +
  +
Idealizado por [[usuário:Zynphull | Rafael V. Ribeiro (zynphull)]], o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na [http://www.rafaelviana.com.br/projeto_hibrida_sinestesia.pdf proposta em .pdf enviada por Rafael para inscrição do Hibrida]. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores.
  +
  +
==Colaboradores==
  +
  +
Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes.
  +
  +
==Primeiras reuniões 17 e 19 de março==
  +
  +
Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil.
  +
  +
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.

Edição das 15h04min de 26 de março de 2014

Link para a página do projeto no site do Hibrida

Pré-Hibrida

Idealizado por Rafael V. Ribeiro (zynphull), o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na proposta em .pdf enviada por Rafael para inscrição do Hibrida. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores.

Colaboradores

Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes.

Primeiras reuniões 17 e 19 de março

Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil.

Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.