testes e correções_relatório
- Margarida Gil Pires
- 21 de jun. de 2025
- 2 min de leitura
Durante a fase de testes do artefacto interativo, foram avaliados diversos aspetos relacionados com o funcionamento visual e técnico da experiência. A apresentação inicial dos vídeos de stop motion e das animações a algumas pessoas teve como objetivo perceber se os tempos de leitura dos textos projetados eram adequados, se a fluidez das sequências animadas era satisfatória e se a mensagem estava a ser comunicada de forma clara. Verificou-se que, em alguns casos, os textos desapareciam demasiado depressa, o que dificultava a leitura completa, pelo que foram feitos ajustamentos nos tempos de exibição, garantindo maior legibilidade.
Entrada DDB:
Paralelamente, surgiram dificuldades técnicas na implementação da interatividade no TouchDesigner, especialmente no que diz respeito à associação dos triggers aos vídeos e à garantia de que estes se iniciavam automaticamente com base nos gestos do utilizador. A instabilidade do sistema nesta fase dificultou os testes e impediu a obtenção de um fluxo contínuo e funcional. Inicialmente, tinham sido considerados gestos baseados em movimento, como acenar para diferentes direções, mas essa abordagem foi abandonada devido às dificuldades técnicas. Com base nas capacidades da biblioteca MediaPipe, que permite a deteção em tempo real de landmarks da mão e do rosto, definiu-se, com a ajuda de um colega, uma nova abordagem mais simples e robusta, com três gestos manuais específicos: um dedo levantado para ativar a animação sobre o Chhaupadi, dois dedos para a animação sobre a falta de condições de higiene, e mão aberta para a animação sobre a endometriose. Esta nova configuração revelou-se mais estável e tecnicamente viável. No entanto, durante os testes surgiu ainda outra dificuldade relacionada com o controlo do início da experiência. Pretendia-se que a introdução do vídeo se mantivesse ativa até existir a presença efetiva de um utilizador. Como os gestos manuais não resolviam esse problema, foi adicionada, com o apoio do mesmo colega de doutoramento, uma funcionalidade de deteção de rosto através do MediaPipe. Esta solução, não prevista inicialmente, permite ao sistema reconhecer a presença do rosto do utilizador em frente à câmara e apenas então iniciar a experiência. Enquanto não é detetado nenhuma cara, o vídeo permanece em modo de introdução. Esta melhoria tornou a entrada no sistema mais natural e garantindo que a instalação apenas reage perante um utilizador real.
Entradas DDB:
Para validar o funcionamento do sistema, realizou-se um teste em cenário de uso com um utilizador, o que permitiu observar o comportamento da instalação em contexto expositivo. Foram testados vários elementos fundamentais, incluindo a interface interativa, a transição entre vídeos, a deteção gestual e facial, o tempo de leitura dos textos, a duração dos segmentos animados e a visibilidade dos conteúdos projetados. Verificou-se que a lógica de interação funciona corretamente e que a navegação entre os diferentes blocos é percetível e intuitiva. Ainda assim, identificaram-se pequenos aspetos a corrigir, como a necessidade de prolongar o tempo de algumas cenas e melhorar o contraste de determinados textos. Este teste foi fundamental para consolidar a proposta e orientar os últimos ajustes antes da apresentação pública.
Entrada DDB:



Comentários