Technologie – przyszłość?
Wyglądając dzisiaj przez okno jadącego samochodu w pochmurny dzień zaczęło mnie zastanawiać parę rzeczy. Jaka pogoda za oknem jest, to chyba każdy widzi, dzisiaj (przynajmniej w moim regionie) można było zaobserwować chmury wszelakiego rodzaju.
Nie wiem, co mnie dzisiaj tknęło, ale przypomniał mi się wówczas wątek o grafice 3D.
Ciężko jest być orłem we wszystkich dziedzinach, a już tym bardziej w każdej poddziedzinie informatyki. Tym bardziej w XXI wieku, gdyż kiedyś można było mieć pojęcie o każdej dziedzinie, nie było tak rozwiniętego IT. Kiedyś kiedyś bawiąc się majstrowanie makiet w 3D Canvas antyaliasing był niemal świeżą ciekawostką. Dzisiaj już wszystko jest tak rozwinięte, że nie da się wszystkiego ogarnąć. Np. nie mam zielonego pojęcia, co to jest bufor akumulacyjny oraz pewnie dziesiątek innych niuansów projektowania wirtualnych światów. Mogę najwyżej zgadywać nazwy pojęć…
3D
Czemu o tym piszę…? Ano przypomniały mi się czasy, kiedy to na Intel 740 łupiło się w Rally Championship… Drzewa jak z wycinanego papieru, normalnie boskie. A teraz…? Nie wiem, czy na tamtym starociu samo drzewo by się zrenderowało… Normalnie jeszcze pamiętam te stare czasy…
A wracając do sedna, zastanawia mnie kilka rzeczy – rzeczywistość przecież jest taka sama, jeśli chodzi o aspekty wizualne – liście na drzewach przecież te same, pies, czy kot mają szerść, a mimo to – patrząc na screeny z gier nadal można bez problemu rozróżnić od fotografii rzeczywistości. Jednak sceny statyczne majstrowane ręcznie przez grafików już naprawdę są bardzo zbliżone do rzeczywistości. Ekspertem od grafiki trójwymiarowej nie jestem, ale wpadłem na parę pomysłów.
real vs. virtual
Aby polepszyć doznania wizualne wymyślano już chyba wszystko – ekrany holograficzne, filtry polaryzacyjne, masę innych rzeczy. Zastanawia mnie natomiast jedno – ludzkie oko nie widzi przecież całego obrazu w 100% ostrego, w każdym jego fragmencie. Czemu by tego nie wykorzystać…? Chociażby w celu redukcji jakości nie do końca widocznych tekstur dla danego fragmentu oka, czy zmniejszania wielkości próbek dla antyaliasingu. W ostateczności – jako dodatkowy kontroler wykorzystywany przy np. rozglądaniu się w przestrzeni.
Ok, idea może by się znalazła, ale co wówczas, gdy widz rozgląda się po powierzchni monitora? A gdyby skorzystać z kamery obserwującej ruch oka? Zwiększać maksymalnie kontrast przechwytywanego przez nią obrazu, a wychylenia oka i głowy wykorzystywać do regulacji jakości obrazu sceny, chociażby nadając antyaliasing konkretnym fragmentom.
Nie jest to aż tak futurystyczna i niedostępna wizja, gdyż sterowanie gestami dłoni zostało już (podstawowo) technicznie zrealizowane. I nie chodzi mi o fake w postaci filmiku ze stajni Opery z pierwszego kwietnia. Najprostsze pomysły są najlepsze, więc czemu by z tego nie skorzystać?
Może nie odkryłem Ameryki, ale jeśli nie było jeszcze takiej praktycznej implementacji, a jakiś student szuka pomysłu na projekt?
specjalizacja
Nie da się być we wszystkim dobrym. To jest technicznie niemożliwe. A czasem robi się po prostu szkoda… Goni projekt, czy ładna pogoda za oknem – aż nagle przy słuchaniu ulubionego kawałka przypomina się, jak majstruje się próbki w jakimś sekwencerze… Każda poddziedzina jest w jakiś sposób zawiła, jakby kierunki na studiach.
Najbardziej szkoda tego, na co nieraz nie ma czasu – jeden kodzi w Javie, drugi w PHP, trzeci klepie obiekty w C dla DirectX/OpenGL. Dzisiaj są takie możliwości… Tylko jak z tego skorzystać…? Aż przypomina się literacki Faust.
Może znajdzie się kiedyś czas na zrenderowanie własnego podwórka w czystym API Dx… ;]
Tak sobie mysle, ze pomysl z rozpoznawaniem gdzie user patrzy jest bardzo ciekawy, tylko sa conajmniej dwie przeszkody:
– rozdzielczosc obecnych kamer + kiepskie i zmieniajace sie czesto osweitenie
– „taniej” wyrenderowac chyba wszystko – niz liczyc co zablurowac, a co mozna olac
Hmm, kiedys czytalem o eyetrackingu taki sprzet bylby dobry, ale powiem szczerze ze dla przecietnego uzytkownika PC ktory od czasu do czasu popyka w Q3A jest on stanowczo za drogi (z tego co pamietam).
Swoja droga rozpoznawanie gestow to ciekawa sprawa – widzialem kiedys soft w pythonie napisany do tego – dawal rade :D.
Swoja droga, moze o samo oszczedzanie procka juz nie chodzi – ciekawe by musialy byc efekty jakby sie tak gralo
(ludzie ktorzy patrza Ci na ekran by powiedzieli „co on widzi?”)