Mudanças entre as edições de "Hibrida/Simulador de Sinestesia"
(Criou página com 'teste') |
|||
Linha 1: | Linha 1: | ||
+ | [http://www2.eca.usp.br/hibrida/index.php/projetos-selecionados/simulador-de-sinestesia/ Link para a página do projeto no site do Hibrida] |
||
− | teste |
||
+ | |||
+ | ==Pré-Hibrida== |
||
+ | |||
+ | Idealizado por [[usuário:Zynphull | Rafael V. Ribeiro (zynphull)]], o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na [http://www.rafaelviana.com.br/projeto_hibrida_sinestesia.pdf proposta em .pdf enviada por Rafael para inscrição do Hibrida]. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores. |
||
+ | |||
+ | ==Colaboradores== |
||
+ | |||
+ | Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes. |
||
+ | |||
+ | ==Primeiras reuniões 17 e 19 de março== |
||
+ | |||
+ | Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil. |
||
+ | |||
+ | Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real. |
Edição das 15h04min de 26 de março de 2014
Link para a página do projeto no site do Hibrida
Pré-Hibrida
Idealizado por Rafael V. Ribeiro (zynphull), o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na proposta em .pdf enviada por Rafael para inscrição do Hibrida. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores.
Colaboradores
Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes.
Primeiras reuniões 17 e 19 de março
Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil.
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.