你有聽過由一隻兔子來向你介紹什麼是 render farm,又它與 cloud computing 有什麼關係的嗎? 沒有的話,那你真的應該繼續看下去,因為真的很好笑…
在 Amazon, Google, Salesforce, Microsoft, IBM 等“人“這樣努力不懈地告訴世人,什麼是雲端計算(cloud computing)之後,接著是一群網路先知(Internet Pioneer)這邊 blog, 那邊撰寫短文,加上偶爾還發表了一些論文(Above the Clouds: A Berkeley View of Cloud Computing),連台灣的教授們也一路下海宣傳了,像佈道大會似的,這是場科技業都會想參一腳的世界趨勢。
那雲端運算與電腦動畫/電影產業有什麼關係呢? 可以 google 一下如下的一些關鍵字:cloud computing, render farm, hollywood, animation, … 但實在不是我感興趣而寫這一篇 blog 的目的,不高不低的。我在想的是,有什麼有趣,讓人看了會心一笑的 cloud computing in animation industry 的東西的?
Render Farm.Fi 是個奇怪而有趣的計畫,它邀請所有有電腦的人,當你的電腦沒在做什麼複雜的事的時候(上 FB 就是一個很好的例子),貢獻你的一點點機器出來,供別人在你的電腦上算圖。還取了個有趣的名稱:Volunteer computing。
重點是,上頭這段宣傳影片實在太可愛了,加上不是美國腔,反而比較容易聽懂(因為說得比較慢?)。看完後,就算你對雲端運算與 render farm 沒啥興趣,也有某種大概個印象了 :)
另有一個與 render farm + cloud computing 有關的網站叫 bevyRender。
bev·y
A large group of people or things of a particular kind A group of birds, particularly when closely gathered on the ground 底層是透過 erlang 的平行運算平台來執行 bucket rendering,概念與那隻大白免介紹的差不多。就是網站遜多了點就是。
Colourwar is just like others, making a website doing user study to figure some meaningful or perceptual ideas for human beings, which can then be abstracted as some sort of mathematical forms (yes, I hear you are screaming the formulae) and then applied to get some interesting (and userful) apps.
Right now, they have 2 testings: 1) gray, and 2) HDR.
about.me and moo.com cooperates to provide a name card printing in special price. And here are the “開箱文”…
the package.
box inside.
the back.
opened!
name card.
name card in back.
Just for fun!
I just suddenly discovered an app from App Store, Alfred. Really funny. It looks like Quicksilver from it’s description. But most interesting is, it reminds me of the render farm management tool, Alfred.
修了門 VFX 課程,作業之一是透過製作一小段 CG + live shooting 的片段來了解 matchmoving 與 camera tracking 的過程與細節。我挑選了 NukeX,使用裏頭的 CameraTracker 來處理這件事。
CameraTracker 本身建議的 feature points 個數不多,只要 100~200 就差不多了,它預覽用的 feature points 品質就挺不錯的了,而且非常的快,對於一個 VFX toolset 來說,這方面的表現非常的好。 VFX 裏頭,有非常多的方法與演算法,都足以耗去你數十分鐘,有日甚至要數小時,這對於工作排得滿滿的,一路到天花板的工作人員來說,無疑是一種災難。有非常多的 studio 花了很多的力氣在處理的技術問題中,「時間/效能」這部分佔了很高的比例。(整合是另一大塊,不過不在這篇 blog 的範圍)Nuke 能在 compositing 勝出的原因之一,我想重點就是「效能」。
上頭的四張截圖,純脆是覺得有趣好玩的,並沒有任何技術意義。不管是 tracking 或是 camera/features 的 exporting to Maya,只要花些許時間,都能一一執行過去。問題就在於,當你手上拿到一組 tracking camera,還有一堆 feature point cloud 後,匯入 Maya,與裏頭的 CG element 混在一起,就算是比較麻煩的事了。我的經驗尚且不足,只完成了如下的小片段。
附記:
pzman 有篇 [NukeX 6 : 從NUKE追蹤資料到MAYA&修Marker流程](http://NukeX 6 : 從NUKE追蹤資料到MAYA&修Marker流程),是個好的開始。
Drake on about.me.
在像 Pixar 這樣的 animation studio,或是像 ILM 這樣大規模的 VFX studio 裏頭,OpenEXR 扮演了一個非常重要的角色:工作過程中,可以用來預覽或是再製的圖片檔。我們就如同其它的 studio 一樣,也是使用 EXR 作為內部的圖檔使用。公司裏頭,絕大部分的 exr 檔,都是 renderer 的產物。OpenEXR 是個可以用來乘載 HDR 的圖檔格式,在 ILM 的推波助瀾,加上其它 studio 的跟進,動畫軟體的支援下,幾乎成了某種 de facto 標票。然後,它終究只是一個“夠開放“的圖檔格式,如何有效且正確的善用它,才是更重要的事。
以下幾點,是我們在太極影音的工作過程中,發展出來的一些經驗:
EXR 檔案裏頭沒有任何標頭或 tag 指出它存的 color space 是線性(linear)、gamma 2.2(1.8, 2.6, …)等,而是由使用的人或是軟體自行解釋。 EXR 鼓勵以 linear color space 的方式來存內容 (scene-referred)。這樣不管是人、機器或是軟體,都不用去猜測別的可能性,而且對於後製來說,既不用對拿到的影像想太多就直接操作,也不需要先做個轉換,是比較省事且安全有效率的 pipeline。但這點不是強制性的,只能說是大家約定成俗的一種習慣性用法。就像我們現在都認為相機出來的 JPEG 一般是 sRGB (~ gamma2.2) 或 Adobe RGB,但其實 JPEG spec 並沒有定義這個。 EXR 以 linear 儲存後,在呈現時才去根據不同的 display device,使用不同的 transformation 或是 LUT 來轉換。要求比較嚴苛的工作環境,會就每個 display device 有一組 LUT (1D?