19/04 – Espaço Virtual, Trabalho Real

Após a introdução do equipamento de realidade virtual na semana anterior, surgiu um novo questionamento: “como desenvolver um projeto que possa ser navegado com e sem o óculos VR?”. Percebeu-se que seria necessário uma visualização em que as pessoas não se perdessem e então analisou-se as possibilidades de sistemas presentes no mundo que poderiam ser usados.

Dentre os softwares já prontos, identificou-se o Mozilla Hubs e o SuperViz. O primeiro é um software de código livre que permite o desenvolvimento de espaços virtuais em 3D. Já o segundo, já era conhecido pela professora Joy e a bolsista Julianna, mas acabou se tornando uma programação com funcionalidades pagas neste meio tempo.

Já quanto aos softwares produtíveis, seria possível desenvolver uma maquete no SketchApp ou outro programa do gênero e posteriormente levar os modelos para o Unity, onde seriam organizados como um espaço de navegação.

Outro projeto abordado foi o DALL·E 2, uma inteligência artificial que foi capaz de reconhecer a relação entre imagens e textos utilizados para descrevê-las. A IA é capaz de interpretar comandos escritos em linguagem comum e desenvolver imagens originais, bem como fazer outras variações de imagens existentes como pinturas ou estilos famosos. Ela parte de um processo chamado “diffusion” (ou difusão), em que um padrão de pontos aleatórios vai se alterando gradualmente para se tornar uma imagem quando a IA reconhece aspectos específicos da imagem.

como juntar tech e fotos?

Pensando em como criar um espaço tridimensional desenvolvido a partir de fotos, analisou-se como o Google Maps e o Google Earth se desenvolveu. Originalmente, o mapa do Google, que na época era só o Earth, só apresentava imagens de marcos importantes, então, para suprir os espaços vazios, eles posicionavam prismas indefinidos que tentavam reproduzir a geometria espacial, como um mapa Low Poly.

Scroll to Top