Drake's Weblog

1 minute read

你有聽過由一隻兔子來向你介紹什麼是 render farm,又它與 cloud computing 有什麼關係的嗎? 沒有的話,那你真的應該繼續看下去,因為真的很好笑…
在 Amazon, Google, Salesforce, Microsoft, IBM 等“人“這樣努力不懈地告訴世人,什麼是雲端計算(cloud computing)之後,接著是一群網路先知(Internet Pioneer)這邊 blog, 那邊撰寫短文,加上偶爾還發表了一些論文(Above the Clouds: A Berkeley View of Cloud Computing),連台灣的教授們也一路下海宣傳了,像佈道大會似的,這是場科技業都會想參一腳的世界趨勢。
那雲端運算與電腦動畫/電影產業有什麼關係呢? 可以 google 一下如下的一些關鍵字:cloud computing, render farm, hollywood, animation, … 但實在不是我感興趣而寫這一篇 blog 的目的,不高不低的。我在想的是,有什麼有趣,讓人看了會心一笑的 cloud computing in animation industry 的東西的?
Render Farm.Fi 是個奇怪而有趣的計畫,它邀請所有有電腦的人,當你的電腦沒在做什麼複雜的事的時候(上 FB 就是一個很好的例子),貢獻你的一點點機器出來,供別人在你的電腦上算圖。還取了個有趣的名稱:Volunteer computing。
重點是,上頭這段宣傳影片實在太可愛了,加上不是美國腔,反而比較容易聽懂(因為說得比較慢?)。看完後,就算你對雲端運算與 render farm 沒啥興趣,也有某種大概個印象了 :)
另有一個與 render farm + cloud computing 有關的網站叫 bevyRender。
bev·y
A large group of people or things of a particular kind A group of birds, particularly when closely gathered on the ground 底層是透過 erlang 的平行運算平台來執行 bucket rendering,概念與那隻大白免介紹的差不多。就是網站遜多了點就是。

1 minute read

Colourwar is just like others, making a website doing user study to figure some meaningful or perceptual ideas for human beings, which can then be abstracted as some sort of mathematical forms (yes, I hear you are screaming the formulae) and then applied to get some interesting (and userful) apps.
Right now, they have 2 testings: 1) gray, and 2) HDR.

1 minute read

about.me and moo.com cooperates to provide a name card printing in special price. And here are the “開箱文”…
the package.
box inside.
the back.
opened!
name card.
name card in back.
Just for fun!

1 minute read

修了門 VFX 課程,作業之一是透過製作一小段 CG + live shooting 的片段來了解 matchmoving 與 camera tracking 的過程與細節。我挑選了 NukeX,使用裏頭的 CameraTracker 來處理這件事。
CameraTracker 本身建議的 feature points 個數不多,只要 100~200 就差不多了,它預覽用的 feature points 品質就挺不錯的了,而且非常的快,對於一個 VFX toolset 來說,這方面的表現非常的好。 VFX 裏頭,有非常多的方法與演算法,都足以耗去你數十分鐘,有日甚至要數小時,這對於工作排得滿滿的,一路到天花板的工作人員來說,無疑是一種災難。有非常多的 studio 花了很多的力氣在處理的技術問題中,「時間/效能」這部分佔了很高的比例。(整合是另一大塊,不過不在這篇 blog 的範圍)Nuke 能在 compositing 勝出的原因之一,我想重點就是「效能」。
上頭的四張截圖,純脆是覺得有趣好玩的,並沒有任何技術意義。不管是 tracking 或是 camera/features 的 exporting to Maya,只要花些許時間,都能一一執行過去。問題就在於,當你手上拿到一組 tracking camera,還有一堆 feature point cloud 後,匯入 Maya,與裏頭的 CG element 混在一起,就算是比較麻煩的事了。我的經驗尚且不足,只完成了如下的小片段。
附記:
pzman 有篇 [NukeX 6 : 從NUKE追蹤資料到MAYA&修Marker流程](http://NukeX 6 : 從NUKE追蹤資料到MAYA&修Marker流程),是個好的開始。

2 minute read

在像 Pixar 這樣的 animation studio,或是像 ILM 這樣大規模的 VFX studio 裏頭,OpenEXR 扮演了一個非常重要的角色:工作過程中,可以用來預覽或是再製的圖片檔。我們就如同其它的 studio 一樣,也是使用 EXR 作為內部的圖檔使用。公司裏頭,絕大部分的 exr 檔,都是 renderer 的產物。OpenEXR 是個可以用來乘載 HDR 的圖檔格式,在 ILM 的推波助瀾,加上其它 studio 的跟進,動畫軟體的支援下,幾乎成了某種 de facto 標票。然後,它終究只是一個“夠開放“的圖檔格式,如何有效且正確的善用它,才是更重要的事。
以下幾點,是我們在太極影音的工作過程中,發展出來的一些經驗:
EXR 檔案裏頭沒有任何標頭或 tag 指出它存的 color space 是線性(linear)、gamma 2.2(1.8, 2.6, …)等,而是由使用的人或是軟體自行解釋。 EXR 鼓勵以 linear color space 的方式來存內容 (scene-referred)。這樣不管是人、機器或是軟體,都不用去猜測別的可能性,而且對於後製來說,既不用對拿到的影像想太多就直接操作,也不需要先做個轉換,是比較省事且安全有效率的 pipeline。但這點不是強制性的,只能說是大家約定成俗的一種習慣性用法。就像我們現在都認為相機出來的 JPEG 一般是 sRGB (~ gamma2.2) 或 Adobe RGB,但其實 JPEG spec 並沒有定義這個。 EXR 以 linear 儲存後,在呈現時才去根據不同的 display device,使用不同的 transformation 或是 LUT 來轉換。要求比較嚴苛的工作環境,會就每個 display device 有一組 LUT (1D?

Recent posts

Categories

About

You're looking at Drake's words or statements. All opinions are my own.