AI詐騙高發讓數字時代的兩面性愈發凸顯。
在這個傳統媒體已被互聯網顛覆的時代,一方面帶來了“信息的民主”,原有的從上至下、金字塔形的話語結構變得扁平,每個人都可以自由發表個人的見解,獲取信息的方式也變得更為多維立體。
【資料圖】
但硬幣的另一面是,在互聯網浪潮勢不可擋、流量瘋狂裹挾之下,是無數未經提煉和歸納的新聞、信息碎片,創造出“一條渾濁的信息河流”;是大數據應用越來越深入尋常百姓家使得全世界的財富都變成了一串串的代碼。
于個體而言是從生產、傳播到接收,產業鏈的失序形成了兩大悖論:一是新聞通脹、真相短缺;二是信息開放、認知繭房。
于國家而言是大數據治理陷入發展與安全的悖論:自由、流動是數據價值的核心所在,但也意味著安全風險的提升;而若動輒高呼“國有化”、“本地化”也無異于因噎廢食,反而可能在大數據時代喪失主導權。
數字時代,“一半火焰,一半海水”。
英國技術哲學家大衛·科林格里奇在《技術的社會控制》一書中指出,一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以爆發。反之,如果控制過晚,已經成為整個經濟和社會結構的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變。這種技術控制的兩難困境就是所謂的科林格里奇困境。數字時代的信息治理問題,就是當下我們迫在眉睫所要解決的科林格里奇困境。
對此,福卡智庫開展了系列研究,相關分析預判成果刊載于內部報告。
【刊目】內部報告2023年第14期
【摘要】歸根結底,互聯網、大數據天然沒有邊界,而國家、企業、公眾等往往是有邊界的;數據安全風險無邊界,牽一發而動全身,而數據立法、治理有邊界,往往頭痛醫頭腳痛醫腳。因此,大數據治理說到底是國家如何在隱私、安全、發展之間尋求一個更為契合自身國情的平衡點,而非一味地“閉關鎖國”、“獨善其身”。
這也意味著,我們既要把大數據“管”起來,也要讓大數據“用”起來、“活”起來。放眼全球,數據競爭本就是一個不公平的戰場,中國既無美國的互聯網先天優勢,也無歐盟那般完善的立法。但中國的優勢在于,一大批大型的數字經濟企業和量大面廣的應用場景,強大的內生發展能力是對外“防御”的基礎。
報告重點分析了以下問題:
●數據資源控制已經成為大國博弈的重要手段
●數據治理仍處于野蠻的叢林時代
●如何將大數據“管”起來
【刊目】內部報告2023年第16期
【摘要】一場圍繞ChatGPT展開的監管風暴亟待開啟,其中置頂矛盾在于AI技術加速迭代與監管對技術認知滯后的落差。根據Open AI官網公布的隱私政策,歐盟頒布的《一般數據保護條例》等與數據保護有關的法規并未被納入Open AI的合規框架之中,OpenAI的“使用數據條款”中,也未對數據用途作進一步說明。
美國監管機構Accountability Tech的聯合創始人杰西·萊里奇提出,與ChatGPT帶來的技術沖擊相比,國會對技術的監管是落后的。當ChatGPT引燃新一輪AI范式迭代,引領決策式AI向生成式AI進階,“環球同此涼熱”,建立有效的治理和法律框架應對AI技術可能對社會穩定、國家安全帶來的問題,已成為一道監管必答的課題。
報告重點分析了以下問題:
●ChatGPT觸發對國家安全前所未有的挑戰
●ChatGPT引發“思維革命”
●ChatGPT形成信息虹吸效應
【刊目】內部報告2023年第21期
【摘要】知識生產者不生產真相;知識傳播者不關心甚至扭曲、壟斷真相;知識接收者缺乏邏輯辨別真相。于是,事情便進入了邏輯閉環:站在里面的多數人看不清,也不愿意看清;置身事外的少數聰明人,懶得管,也管不了。社會在無意識的共謀中,無視了“房間里的大象”。久而久之,人們甚至可能失去對知識的辨別力,以為“赤裸的國王”真的穿著“一件新衣”。
報告重點分析了以下問題:
●“黃色新聞”似乎借著短視頻以另一種形式復活了
●互聯網時代的信息生產、傳播、接收都不同程度出現了問題
●算法邏輯豢養用戶