Mudanças entre as edições de "Hibrida/Simulador de Sinestesia"
Linha 15: | Linha 15: | ||
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real. |
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real. |
||
− | + | ==Documentação== |
|
+ | |||
+ | ===Textos sobre Sinestesia=== |
||
+ | |||
+ | ===Referências de trabalhos artísticos=== |
||
+ | |||
+ | ===Informações sobre eye-tracking=== |
||
+ | |||
+ | ===Informações sobre teoria da cor=== |
||
+ | |||
+ | ===Processing=== |
||
+ | |||
+ | ===Pure Data=== |
Edição das 19h27min de 26 de março de 2014
Link para a página do projeto no site do Hibrida
Pré-Hibrida
Idealizado por Rafael V. Ribeiro (zynphull), o Simulador de Sinestesia (nome provisório até hoje), em sua gênese, tinha por objetivo utilizar-se de software e hardware aberto para a conversão em tempo real de input visual em output sonoro e input sonoro em input visual, como descrito na proposta em .pdf enviada por Rafael para inscrição do Hibrida. Tendo sido a proposta eleita para participar do projeto, abriram-se as incrições para colaboradores.
Colaboradores
Durante o período de inscrição para colaboradores, uma equipe começou a ser formada, compondo-a Loren Bergantini, Vinicius Franulovic, Alex Tso e Glória Fernandes.
Primeiras reuniões 17 e 19 de março
Devido às limitações técnicas e temporais relacionadas ao Projeto Hibrida, que incuba o Simulador, decidimos por delimitar melhor o escopo da proposta, de modo a conseguir criar um protótipo não só funcional, mas também coeso e bem feito até o fim do Projeto Hibrida. Assim sendo, destarte optamos por limitarmo-nos à conversão de imagens visualizadas (do campo de visão do usuário do protótipo) em sons audíveis. Cogitamos por certo tempo a utilização de um dispositivo EyeTracker, que poderia ser utilizado para recortar uma porção campo de visão do usuário em que ele estaria se focando, dando ao protótipo mais informações sobre o que converter. Por ora, tal ideia encontra-se dormente, ainda que a implementação de um EyeTracker, terminado o projeto, não seja tarefa muito difícil.
Após discussões extensas, concordamos em alguns pontos. Na conversão imagem -> som, precisamos saber quais informações conseguimos retirar do ambiente usando uma câmera digital e qual a liberdade de criação que temos em síntese de áudio em tempo real.