生成式AI正在社會的各個層面發揮變革的力量。它的影響力從資訊科技和醫療保健延伸到零售和藝術,滲透到我們的日常生活中。 

根據eMarketer 的數據,生成式 AI 已顯示出早期採用情況,預計在最初的四年內,僅在美國就有 1 億或更多用戶將會完全採用 GPT。因此,評估這項技術的社會影響至關重要。 雖然 AI 能夠提高效率、生產力和經濟效益,但也有人擔心AI驅動的生成系統的道德使用。 

本文探討了生成式AI如何重新定義規範、挑戰道德和社會界限,並評估對管理社會影響的監管框架的需求。 

生成式AI如何影響我們

生成式AI極大地影響了我們的生活,改變了我們在數位世界中運作和互動的方式。讓我們探討一下它的一些正面和負面的社會影響。 

好的影響

自推出以來的短短幾年內,生成式AI已經改變了業務運營,開闢了新的創造力途徑,有望提高效率並改善市場動態。 

生成式 AI 的正面社會影響:

1. 加快業務流程

在接下來的幾年裡,生成式AI可以將 SG&A(銷售、一般和管理)成本削減 40%

生成式AI透過自動化複雜任務、促進創新和減少手動工作量來加速業務流程管理。例如,在資料分析中,Google BigQuery ML等模型加速了從大型資料集中提取見解的過程,因此,企業可以享受更好的市場分析和更快的上市時間。

2.讓創意內容更容易獲取

超過50% 的行銷人員認為生成式 AI 能夠提高參與度、轉換率和更快的創意週期。 

此外,生成式AI工具具有自動內容創建功能,只需簡單點擊即可建立圖像、音訊、視訊等元素。例如,CanvaMidjourney 等工具利用生成式AI來幫助使用者輕鬆創建具有視覺吸引力的圖形和強大的圖像。 

此外,ChatGPT等工具有助於根據目標受眾的使用者提示集思廣益內容創意。這增強了用戶體驗並擴大了創意內容的範圍,將藝術家和企業家與全球受眾直接聯繫起來。

3. 知識觸手可及

Knewton的研究表明,使用AI驅動的自適應學習程式的學生的測驗成績顯著提高了 62%。

生成式 AI 透過 ChatGPT 或 Bard.ai 等大型語言模型 (LLM) 為我們提供即時存取知識。它們回答問題、產生內容並翻譯語言,使資訊檢索變得有效率且個人化。 此外,它還賦能教育,提供量身定制的輔導和個人化的學習體驗,透過持續的自學來豐富教育旅程。 

例如,Khanmigo是可汗學院推出的AI工具,它充當學習編碼的寫作教練,並提供提示來指導學生學習、辯論和協作。

Khanmigo

壞處

儘管產生了積極的影響,但生成式AI的廣泛使用也帶來了挑戰。 讓我們來探討一下它的負面社會影響: 

1. 缺乏品質管制

人們可以將生成式AI模型的輸出視為客觀事實,而忽略了潛在的不準確之處,例如GPT4 變笨或者是幻覺。這可能會削弱對資訊來源的信任,並導致錯誤訊息的傳播,影響社會觀念和決策。

不準確的AI輸出引發了人們對AI生成內容的真實性和準確性的擔憂。雖然現有的監管框架主要關注資料隱私和安全,但很難訓練模型來處理所有可能的情況。 

這種複雜性使得調節每個模型的輸出具有挑戰性,特別是在使用者提示可能無意中產生有害內容的情況下。 

2. 有偏見的AI

生成式AI的好壞取決於它所訓練的資料。從資料收集到模型部署的任何階段都可能出現偏差,無法準確地代表整體人口的多樣性。 

例如,檢查來自 Stable Diffusion 的 5,000 多張圖像表明,它加劇了種族和性別不平等。在這項分析中,Stable Diffusion(一圖像生成的模型)將白人男性描繪成首席執行官,而女性則扮演從屬角色。令人不安的是,它也對深色皮膚的男性進行犯罪行為和深色皮膚的女性進行卑賤的工作進行刻板印象。 

應對這些挑戰需要承認數據偏差,並在整個AI生命週期中實施強有力的監管框架,以確保AI生成系統的公平性和問責制。

3. 虛假行為氾濫

使用生成式AI模型創建的深度偽造品和錯誤訊息可以影響大眾並操縱公眾輿論。此外,深度假貨可能煽動武裝衝突,對國內外國家安全構成獨特的威脅。

虛假內容在網路上不受控制地傳播給數百萬人帶來了負面影響,並加劇了政治、宗教和社會不和。例如,2019 年,加彭未遂政變中涉嫌使用DeepFake 技術。這引發了關於AI生成資訊的倫理影響的迫切問題。

4. 沒有定義所有權的框架

目前,還沒有一個全面的框架來定義AI產生內容的所有權。誰擁有AI系統產生和處理的數據的問題仍未解決。 

例如,在 2022 年底發起的「Andersen v. Stability AI 等」法律案件中,三位藝術家聯手對各個 Generative AI 平台提起集體訴訟。 

訴訟稱,這些AI系統在沒有獲得必要許可的情況下使用了藝術家的原創作品。藝術家們認為,這些平台利用其獨特的風格來訓練AI,使用戶能夠產生可能缺乏對其現有受保護創作進行充分改造的作品。

此外,生成式AI使得廣泛的內容生成成為可能,而創意產業中的人類專業人員所產生的價值變得值得懷疑。這也對智慧財產權的定義和保護提出了挑戰。

規範生成AI的社會影響

生成式AI缺乏全面的監管框架,引發了人們對其對社會產生建設性和有害影響的可能性的擔憂。 有影響力的利害關係人正在倡導建立強有力的監管框架。

例如,歐盟提出了首個AI監管框架來灌輸信任,預計將於 2024 年通過。該框架採用面向未來的方法,其規則與能夠適應技術變革的AI應用程式相關。 

它還建議確立用戶和提供者的義務,建議進行上市前合格評估,並建議在明確的治理結構下進行上市後執法。

此外,AI監管倡導者艾達洛夫萊斯研究所 (Ada Lovelace Institute)報告了精心設計的監管對於防止權力集中、確保准入、提供補救機制和最大化利益的重要性。

實施監管框架將代表在解決生成式AI相關風險方面邁出一大步。這項技術對社會產生深遠影響,需要監督、深思熟慮的監管以及利害關係人之間的持續對話。  

要了解生成式 AI 的最新進展、其社會影響和監管框架,請造訪 Tenten AI

Share this post