親愛的讀者,你是否也收到過突然打來的自動撥號電話?一個陌生的機械音,劈頭就向你兜售一堆莫名其妙的商品。實在惱人!
然而更惱人的,是那些充斥謊言的自動電話。
就在2024年美國大選前夕,一則怪異的新聞鬧得沸沸揚揚,有人利用人工智能技術,制作了大量冒充拜登總統本人的自動撥號電話!
這些“拜登”以極其逼真的聲音,向新罕布什爾州的民主黨選民灌輸誤導信息,敦促他們不要在初選中投票。
![]()
消息一出,轟動全美。
民主黨人大為光火,指責這是共和黨對手的陰謀詭計。而當事人喬·拜登本人也表現出極大驚愕,抗議自己從未主動撥打這樣的電話。
那么,這其中的內情是什么?利用人工智能技術偽造他人聲音、傳播謊言,又會對社會帶來怎樣危險的影響?我們有必要深入探討。
人工智能的反面武器
很遺憾,在這個科技飛速發展的時代,每一項創新都會被一些人惡意利用。人工智能也不例外。
記得幾年前橫空出世的“深度偽造”技術嗎?它可以將任何人的臉部替換到真人影像中,制造出栩栩如生的假視頻。一時間,明星的“面具視頻”傳播甚廣,引發公眾擔憂。
類似地,人工智能也可以克隆他人的聲音。通過收集和分析某人的語音數據,算法可以模擬出極為逼真的音色和語調。這為制造假信息提供了極大便利。
木已成舟:監管的失職
遺憾的是,在這起事件中我們看到,相關監管部門的反應遲緩,幾乎于事無補。
聯邦選舉委員會本應制定明確的人工智能使用規范,但它完全沒有意識到問題的嚴重性和緊迫性。一些倡導機構已向其請愿,要求加速行動,但似乎毫無作用。
同樣,人工智能企業如OpenAI也有責任落實內部規章制度,杜絕產品被濫用。但業內守門員似乎仍在睡夢中。
你準備好迎接“深度冒充”年代了嗎
或許你會問,這和我又有什么關系?但請思考,如果連總統的聲音都能輕易偽造,你我又還能相信什么是真實的?
![]()
我們必須正視人工智能可能帶來的負面影響,并敦促有關部門盡快出臺監管措施。與此同時,每一個公民也應提高判斷能力,不因為一通電話或視頻就隨波逐流。
就像我們需要學習辨別照片里的“美顏”,也需要重視聲音和影像的“深度冒充”。只有公民意識同步提高,法律監管才能發揮真正作用。
親愛的讀者,這個時代或將充滿前所未有的真假難辨。讓我們保持敏銳和清醒,用理性抵御被動洗腦的威脅。
就像北極星引導水手歸家,唯有辨明真偽這根試金石之筆,方能讓我們在復雜紛亂的航線上不致迷失方向。
補充備注:本文由Seerbolder團隊訓練的story weaver模仿凱文·羅斯(Kevin Roose)寫作風格,他是《紐約時報》知名的科技評論員,長期關注科技對社會的影響。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.