此電郵之前已成功登記!
你已成功訂閱 Spill Paper!
Follow Us

放手給 A.I. 做電影審查 先要教 A.I. 明辨是非

2019年10月03日

人工智能(A.I.)的力量宏大,應該不用多解釋。先前看過一段關於訓練 A.I. 玩捉迷藏的報導,經過 8,500 萬局的對戰後,居然生成出像抗爭運動般的攻防模式。A.I. 的自我學習能力,竟然有預知未來的能力,怎不叫人意外?影音界用上 A.I. 的時候也不少,製作上會用 A.I. 和大數據,將賣座元素分解再裝嵌,發佈時,會靠 A.I. 分析喜好再作建議,沒有「被祝福」的電影注定沒機會面向觀眾。其實 Facebook、YouTube 都有借助 A.I. 去分辨兒童色情、恐怖主義、過度暴力的影片,有指效率比人肉檢測高出兩倍之多,假如放手給 AI 做電影審查,又會是怎樣的光景?

其實 Facebook、YouTube 都有借助 A.I. 去分辨兒童色情、恐怖主義、過度暴力的影片,有指效率比人肉檢測高出兩倍之多,假如放手給 AI 做電影審查,又會是怎樣的光景?

色情與暴力

讓 A.I. 認出色情與暴力的畫面場景其實唔難,畫面上肉色紅色的,線條上有長條形有圓形,做一點人面辨識,再配合動作偵測、叫聲槍聲喧嘩聲等,已可讓 A.I. 對色情與暴力的畫面有基本概念,至於把香腸、鮑魚、蛋黃醬錯當色情畫面,或雷射筆當成暴力雷射筆的例外,亦相信不難利用機器學習去慢慢排除。再進一步了,應該如何教導 A.I. 為色情、暴力的畫面分級?尤其標準隨潮流改變,三點不露的泳裝畫面看起來可以比進行中的性行為更黃更色情,三尺不到的近距離開槍也可以被視為合法合理而非過度暴力,我不肯定 A.I. 能否做得到,但我可好奇 A.I. 在機器學習後,能否歸納出中立、合理和具道德的想法。

恐怖主義還是政治正確

色情與暴力,無論在視覺上還是意識上,那管基準常變,但仍尚有基準可循,但說到對政治層面,以 A.I. 作審查和過濾,又是另一種概念。樂觀點看,A.I. 出盡九牛二虎之力去過濾仇恨言論,避免助張恐怖主義,但反過來,這禁聲的方式,也能輕易用於政治層面。關鍵字中直接把 8964、港獨、黑警刪去,間接點也可以把 5 月 35 日、POPO 之類偵測出來,也許 A.I. 的機器學習可以預測到很多相關的字詞,但有沒有足夠的 samples 讓 A.I. 學習到影片中對政治的隱喻?不是每一套電影都要像《1900》、《十年》、《黑社會》那麼直接,當 A.I. 能在《復仇者聯盟》中看出政治意味時,是不是應該由 A.I. 把 Endgame 的最後大戰定性為暴動?

誰來教 A.I. 分辨錯對

延伸下來,你還想不想電影審查由 A.I. 來處理?誠然,以 A.I. 審查電影細節,技術上有一定的局限性。是的,Facebook 和 YouTube 就影片審查過濾已有先例,但網上影片長度一般只是幾分鐘,超過 1 小時已是絕無僅有,A.I. 相同的經驗能否直接套用到審查片長往往達 2 小時的電影上成疑。複雜程度很可能因片長而增加,因此需要更強的電腦軟件去執行,需時亦很可能會幾何級提升可以預期。再說,電影拍攝需時,增長速度再快也沒有 Facebook 和 YouTube 的影片那病毒級的增長和散播速度,無論是效率和需求,先天都沒有使用 A.I. 的迫切性,直接交回真人處理,也許更快捷方便吧。

A.I. 要花多久才能學會體會電影中的含意?而導演而至觀眾又是否能信服 A.I. 所作的最後裁決?更重要的是,你是否能相信 A.I. 的最後決定夠公正?跟 8,500 萬局的捉迷藏對戰不同,政治、倫理、道德,不是非黑即白的問題,8,500 萬次的解難經驗之後,也不可能會有肯定的答案。我是很希望 8,500 萬次的解難後,A.I. 會發現「良知」,而這可能是推崇政治審查的政權最害怕的。

緊貼最新資訊,請讚好 SPILL Facebook 專頁

你可能感興趣的文章