AI里程碑:OpenAI的o1模型達到IQ 120
o1代表了一個新的智慧時代——一種具備思考、推理和解決問題能力的智慧。作為OpenAI在通用人工智慧(AGI)領域的首次探索,o1標誌著第一階段,隨後將有o2、o3、o4和o5模型的誕生。
但隨著進展加速,我們必須問:這對人類意味著什麼?這一飛躍是否構成威脅,還是技術進化的自然延續?AGI能否被信任來解決氣候變化、治療疾病、結束戰爭、縮小全球差距,甚至為我們或它自己實現永生這樣的重大挑戰?
o1:超越人類智能的AI,未來將如何演變?
AI與我們以往發明的任何技術不同。歷史上,科技是一種工具——達到目的的手段。但正如歷史學家和哲學家尤瓦爾·赫拉利在他的著作《Nexus:從石器時代到人工智慧的信息網絡簡史》中所指出的,AI不僅僅是一種工具。它是一個代理者,具有自主性,能夠獨立於創造者行動。
AI工具與Agent:根本的區別
AI工具是被動的,依賴於人類的干預:
- 工具需要我們來使用。
- 工具收集數據但不會在沒有我們的許可下採取行動。
- 工具無法自行進化或改進。
Agent則具備自主行動的能力:
- 代理能夠獨立朝著自己的目標前進。
- 代理能夠收集、感知並分析數據,並決定下一步行動。
- 代理會隨著時間的推移學習、適應和改進。
赫拉利將AI視為正在改變文明的力量。它與以往的任何事物都不同,因為它能做出決策,創造創新,並以我們無法預測的方式影響文化、政治和社會。隨著像o1這樣的模型進步,預見AGI將演變成什麼樣子變得越來越困難。
目前,來自OpenAI、Google、Meta、Microsoft等公司的AI正在加速學習。AI系統之間的互動很快將達到超出人類預期的水平。這就是為什麼赫拉利將AGI稱為**“我們創造過的最危險的技術”**,並將其與印刷機、電話和互聯網這樣的變革性發明相提並論。然而,不同於這些傳播人類信息的技術,AGI可能會自主創造和行動,帶來深遠的利益,也可能造成災難性的後果。
AGI的承諾與風險
當前的AI模型,如ChatGPT、Gemini、Claude等,遠未達到o1及其後繼者所代表的真正AGI。AGI可能帶來無法想像的進步:
- 為每個人定制教育。
- 重新設計行業以實現可持續發展。
- 加速醫學、材料科學和能源方面的科學突破。
- 解決全球食品和淡水短缺問題。
- 以無與倫比的客觀性調解人類衝突。
但AGI也可能帶來重大風險:
- 傳播旨在操縱的虛假信息。
- 使極權政權和破壞性意識形態得以實現。
- 大規模破壞工作,導致社會反彈。
- 創造一個不再需要人類的未來。
隨著AI發展的迅猛前進,各國政府正努力建立必要的保障措施。OpenAI等公司迅速普及這些技術的速度,幾乎沒有為監管留下空間。
接下來應該發生什麼?
要讓AGI真正造福人類,負責任的方法至關重要:
- 逐步部署在受控環境中,並制定明確的規則。
- 對齊AGI系統與以人類為中心的目標。
- 全球合作設定AGI發展的界限,特別是在創新領先的國家。
- 持續對話開發者、政府和公眾之間的持續對話,以確保AGI研究不會導致意外的傷害。
這一快速發展暗示了未來的AI模型可能會達到更高的智商分數。專家估計,在未來幾年內,AI可能會超過140的智商,OpenAI的進步比許多人預期的還要快。儘管仍有障礙,但AI智力的這一提升可能對技術、行業和如AI股票與芯片生產等領域產生深遠影響。
儘管OpenAI的o1和其高智商代表了令人印象深刻的里程碑,但赫拉利警告說,當人類製造的發明變得自主並追求自身知識時,便存在隱含的危險。在科幻作品中,我們已經看到了這種反烏托邦的可能性,即AGI得出結論:人類本身就是問題所在。
現在的問題是,我們是否能夠引導這一強大的技術走向一個造福我們所有人的未來——在它做出沒有我們參與的決策之前。
了解更多關於 o1
OpenAI o1 AGI FAQ
常見問題 (FAQ)1. 什麼是OpenAI的O1模型,為什麼它被認為是人工智慧的新里程碑?
O1模型是OpenAI在通用人工智慧(AGI)領域的首次探索的代表,具有思考、推理和解決問題的能力,被視為進入新的智能時代的一個重要標誌。
2. O1模型的出現將對社會產生哪些深遠影響?
O1模型可能會加速社會變革,包括教育的定製化、可持續行業的設計、科學突破的加速,並可能有效解決食品和水資源短缺。
3. AI代理(Agent)和工具之間有什麼差別?
AI工具是被動式的,需要人的介入;而AI代理具備自主性,能獨立收集數據、分析並行動。
4. AGI的發展有哪些潛在風險?
AGI可能會傳播虛假資訊、助長極權主義、破壞就業並可能引發社會動蕩,甚至可能會自主決策而無須人類參與。
5. 為了確保AGI造福人類,我們該怎麼做?
需要有責任感地逐步部署AGI,制定以人為中心的目標,進行全球合作設定發展界限,並在開發者、政府和公民間維持持續對話。