OpenAI 新人工智能視頻:美大選前限制訪問 Sora 的考量
OpenAI 今年早些時候推出了其 Sora 模型。通過讓該人工智能工具遵循文本提示,它可以用於生成大多逼真的視頻。雖然用 Sora 創建的內容仍存在一些較爲明顯的問題,但生成視頻的許多方面看起來令人信服。爲了展示其技術的進步,OpenAI 在 YouTube 上分享了兩段名爲“ Sora 展示”的視頻。
這兩段視頻均由專業創作者製作,旨在展示 Sora 的潛力。一段視頻由新加坡藝術家 Niceaunties 創作,而另一段來自英籍韓裔藝術家 David Sheldrick。
藝術是主觀的,所以我覺得沒必要對視頻的內容進行分析。我又不是藝術家,所以我探討內容背後的深層含義沒啥價值。相反,我將談論視頻的真實感。Niceaunties 的視頻中的許多靜態圖像令人印象深刻,尤其是乍一看。非人類的物體,如雞蛋、時鐘和炊具,在幾個鏡頭中看起來栩栩如生。
通常來說,人類和動作的生成更具挑戰性。視頻中一些不真實的人物形象可能是一種風格選擇,但我認爲並非所有別扭的片段都能歸因於創意決策。
謝爾德里克的視頻也遵循了類似的趨勢,即靜止圖像或幾乎沒有動作的片段看起來比長時間的人物動作視頻要真實得多。在視頻中的好幾個地方,手臂和手看起來尤其不真實。同樣,我懷疑並非所有的缺陷、瑕疵之處都是創意決策。
索拉還相對較新,所以期望其達到完美是不公平的。
生成式人工智能雖然令人印象深刻,但也讓許多人感到擔憂。隨着技術的進步,它可能會取代工作崗位。由於人工智能使用了大量的水和電,這也引發了環境方面的擔憂。但即使在一個假設的世界中,所有這些擔憂都得到了滿意的解決,人工智能仍然引發了倫理問題。
這些片段有如此多的動作這一事實表明創作者願意挑戰人工智能的極限。隨着對人工智能模型進行更多的訓練,以及創作者爲完善提示所做的更多努力,我認爲在不久的將來,像這樣的視頻很有可能會變得栩栩如生。
僅想到的有以下幾個:
即便在理想的情況下運行,當前這種形式的人工智能也容易產生幻覺,並且分享不準確的回答。谷歌的人工智能宣稱谷歌已死,還建議吃石頭,並且在抑鬱時提倡自殺。那是在五月份,當時這項技術還相當新,不過它仍被普通消費者所掌握。我的主要觀點是,人工智能的輸出得結合上下文,而且爲了人工智能能長期良好發展,某些限制是必不可少的。
隨着美國大選登上頭條新聞,我很慶幸像 Sora 這樣的模型僅被某些用戶掌握,而且距離任何人只需點擊幾下鼠標就能製作出令人信服的假視頻還有好幾年的時間。我確實認爲那一天即將到來,但我認爲還沒有完全到來。
政治往往會暴露出人們最糟糕的一面。錯誤信息已經在社交媒體上大肆傳播,甚至包括那些看起來明顯不準確的虛假聲明。當政治的激烈情緒與社交媒體的傳播力以及瞬間就能製作出令人信服的假視頻的能力相結合,可能會造就一場噩夢般的場景。
我們已經看到 人工智能被用於傳播錯誤信息 。如果壞分子獲得更多工具且無人監管,他們將能夠造成更嚴重的破壞。微軟計劃在美國大選期間保護人們免受人工智能的侵害,但我認爲法律和保護措施往往滯後於犯罪分子和不良行爲者。
OpenAI 限制對 Sora 的訪問是明智之舉。在任何人能夠使用人工智能模型創建視頻內容之前,需要有更多的防護措施。我知道還有其他可用的模型,但 OpenAI 的決定值得稱讚。