tiistai 3. marraskuuta 2009


Itsetehdyn multitouch screenin toimintaperiaate. Kaikki pyörii sen kysymyksen ympärillä, voiko pleksistä tehdä soittimen, jolla voi soittaa sekä kuvaa/animaatiota, että ääntä/musiikkia.

Teknisesti tämä toimii siten, että otetaan läpikuultava pleksi, videotykki, videokamera, joka näkee vain infrapunavalon, infrapunavalo, äänimonitorit ja tietokoneita. Valoalue jaetaan kahteen osaan, projisoinnin alueeseen ja pleksin valaisualueeseen. Pleksi valaistaan infrapunavalolla ja sitä kuvataan kameralla. Kameran läpi käytetään softaa, joka tunnistaa blobeja, eli käden kokoisia alueita valaistun pleksin läpi. Tähän softaan on pari vaihtoehtoa, testasin Reactivisionia, Touchlibiä ja Community Core Visionia. Näistä CCV toimi parhaiten tähän tarkoitukseen. Softa siis tunnistaa blobeja. Näillä sitten liikutellaan 3D- ja muita visuaalisia objekteja sekä ääntä. Kuvamateriaalia ohjaan Processingilla ja ääntä (ohjaa Tumppi Norvio) ensin Max-MSP:llä, joka vastaanottaa OSC-signaalit ja muuttaa ne midiksi Ableton Livellä käytettäväksi.

Kuva treeneistä, kun kosketusnäyttö tottelee vielä omia systeemeitään.

Ei kommentteja:

Lähetä kommentti