還記得《瘋狂麥斯:憤怒道》(Mad Max: Fury Road)嗎?這部片有許多為人津津樂道的細節,沙漠飛車追逐的場景,更是令人難以忘懷。肯定有許多影迷仍在心心思念著,為何它不趁勝追擊、端出續集呢?
最主要的原因,是七十老幾的導演喬治米勒(George Miller)覺得心累身也累,在訪談中提到,他光是想到要再花8個月到沙漠拍片,就不願重新再來一遍。
實拍是有它獨樹一格的魅力,但不管是成本(劇組的差旅費、時間成本等等)或者是效率,尤其對電影宇宙的大卡司商業片來說,並不是行得通的作法。比如《復仇者聯盟4》,漫威劇組光敲個演員檔期,就已經不容易了,還出外景呢。因此,綠幕加上後製動畫,早成了好萊塢的主流。
但是,大家可能不太知道,綠幕加電腦動畫的這種作法,可能就快被淘汰了。而讓棚內拍攝進化的,正是Unreal Engine這類的遊戲引擎加上VR頭顯的應用,甚至,更誇張地說,這個新技術可能會在Covid-19後,成為好萊塢後疫情時代的新常態。
最近,看到CNBC的這支專題報導,它的問題很簡單,就是——「在後疫情時代,虛擬拍攝會不會成為好萊塢的新主流?」
這個問題的背景脈絡,自然是因為整個好萊塢都受到了疫情的影響,全面停擺的緣故。停拍的後果,不只是戲院沒電影可以上,更是所有你正在追的美劇,都面臨下一季要等更久的後果,簡直是電影荒加劇荒的雙重打擊啊!
拿台灣來說,我們好一陣子沒有新病例了,但其他國家就不見得如此了。因此,旅遊業需要紓困,幸運的你我,年假到底該怎麼用還挺傷腦筋的。至於美國,就算疫情壓下來,好萊塢也開工了,要飛到紐西蘭、澳洲、或非洲出外景,還是相當麻煩的事。是的,這時候虛擬拍攝就該趁勢崛起了。
迪士尼的《曼達洛人》是最好的示範
遊戲玩家,應該都對Unreal Engine不陌生。Unreal Engine的研發團隊,是開發過《無盡之劍》(Infinity Blade)系列、《要塞英雄》(Fortnite)系列的Epic Games,就連吃雞手遊《絕地求生》也都使用了這套引擎,最近釋出的第五代引擎Unreal Engine 5官方畫面,目前已經超過1,300萬的觀看次數。
跟著 Disney+ 一塊上線的星際大戰影集《曼達洛人》(The Mandalorian),以及「真獸版」《獅子王》(The Lion King),都使用了HTC VIVE頭顯,以及Unreal Engine來製作。這套引擎厲害在哪?它為什麼能超越綠幕?
大家都看過漫威演員在綠幕前演戲的畫面,演員必須「假裝」自己在外星球或太空船上,前面真的有隻浣熊、或和不知名的外星生物戰鬥,畫面很好笑,直到後製上了電腦動畫才能合理。
除了逼真的畫面,Unreal Engine還有強大的即時運算(realtime)功能,也就是說,它能讓後製變成前製,只要在攝影棚裡放個巨型LED螢幕當背景,將模擬好的動畫投射上去,就能製造出沙漠、外星球等各種地貌,對演員來說,根本就不必在綠幕前硬演了。透過這套引擎,不用出外景,就足以讓製片公司省下大把的預算。
導入這套技術的人,是和迪士尼長期配合的導演強法夫洛(Jon Favreau)。他導了漫威的《鋼鐵人》(Iron Man)第一集和第二集,也在漫威電影宇宙中尬一角,飾演東尼史塔克的司機兼好友Happy Hogan;後來終於引進Unreal Engine和HTC VIVE頭顯來進行虛擬拍片,一連應用在兩部迪士尼大IP《與森林共舞》(The Jungle Book)和《獅子王》(The Lion King),最近更沿用在他擔任主創的星戰影集《曼達洛人》上面。
使用VR頭顯配上遊戲引擎,不但有辦法不出外景,也能保持社交距離,更可以進行電影前期準備的工作。實地拍攝(location scouting),是電影正式開拍前的必備作業,一但導演決定好場景需求,劇組就會開始尋找合適的場地,進行場勘,以找到導演需要的特定鏡位。
有了VR,導演就不必親臨現場,可以直接聘用當地的劇組,去實地拍攝環境,蒐集包括地貌、光線、氣候⋯等等訊息,最後在VR裡重建,反覆在引擎中試到他要的效果。試想,每天的日出和日落,就只有短短幾分鐘,但有了Unreal Engine和VR,要連拍個十小時的日出日落都不成問題。
甚至,我們還可以讓VR成為遠距工具的應用。我們之前提過,Ford透過VR協作設計跑車的消息,VR作為劇組的協作工具,行不行?要討論取景角度的各種可能性,或是要選哪一顆鏡頭,Zoom再厲害,也不能呈現畫面效果。那透過VIVE Sync或者VRChat呢?或許可以。
提供虛擬實境環境作為協作工具,才能夠召開有效的會議。或許,在VR電影還沒成熟之前,「全VR製作的好萊塢大片」就會出現了,這也不是不可能呢。
啊,真的好久沒上電影院了,不曉得大家想看的下部久違的電影是哪一部呢?我的話,應該會是克里斯多福諾蘭(Christopher Nolan)的《天能》(Tenet)吧!