在其首席執行官山姆·奧特曼(Sam Altman)被解僱並隨後重新聘用一個月後,OpenAI發佈了一套指南,用於衡量哪些AI模型可能給人類帶來“災難性風險”。“防範框架”旨在解決人工智慧風險的科學研究與其當前狀態的現實之間的差距。Open AI 的監控和評估團隊計劃審查每個新模型,以將其分為四個風險級別之一:低、中、高或嚴重,分為四個類別。第一個與網路安全有關,第二個與模型幫助人類對他人造成大規模傷害的能力有關(即通過病毒或核武器),第三個與它對人類行為的潛在影響有關,第四個與它的潛在自主性有關,尤其是不受束縛的自主性。根據該公司的框架,只有被視為低風險或中風險的模型才能發佈。
風險評估后,該團隊將向OpenAI的安全諮詢小組提交他們的調查結果。有關降低風險的最終決定將留給OpenAI的負責人,董事會擁有壓倒性的權力。就上下文而言,Altman 被 OpenAI 董事會解僱的部分原因是他支援加速 AI 開發,而很少考慮它可能代表的威脅。幾天后,在員工和投資者抗議這一決定后,他被重新聘用,董事會成員也被替換。
在 Techxplore上閱讀更多內容。
巧合的是,一家名為 Verses 的 AI 公司在《紐約時報》上發表了一封公開信,在人工智慧生成智慧 (AGI) 取得“重大內部突破”后,尋求 OpenAI 的支援。Verses 特別提到了主動推理的突破,這個概念旨在為理解即時感知提供一個數學框架。根據 Verses 的說法,這種演變可能有助於使大型語言模型 (LLM) 更加可靠和對人類有益,並最終導致 AGI。在公開信中,Verses 聲稱它有資格獲得 OpenAI 在其專案中的協助,同時也宣稱其致力於“一個具有安全意識的專案”。
與競爭對手 Deepmind、Anthropic 等公司一樣,OpenAI 毫不掩飾其開發 AGI 的意圖。在其網站上發佈的使命宣言中,該公司表示,「創造造福全人類的安全AGI。與當前的人工智慧模型不同,人工智慧模型傾向於針對一組特定的任務而設計,從理論上講,AGI將匹配或優於人類智慧。一些專家擔心,AGI的出現將意味著奇點已經達到(即實現類人人工智慧),即使沒有人為干預,該演算法也將不可避免地演變為超級智慧。其他專家對AGI的實現表示懷疑。與此同時,只有時間才能證明 Verses 的公開信是否是真正的合作呼籲......或者僅僅是宣傳噱頭。
在 Drum 上查找更多資訊。
經過近40個小時的談判,歐盟代表在布魯塞爾就一套使用人工智慧(AI)的歷史性規則達成一致:《人工智慧法案》。如上所述,該協議標誌著一個新時代的開始,經過多年的肆無忌憚的發展,充斥著潛在的濫用,這引發了包括比爾·蓋茨、埃隆·馬斯克和山姆·奧特曼在內的有影響力的人物的警告。義大利的歐洲議會議員布蘭多·貝內菲(Brando Benefei)說:“我們有一個目標,即制定一項立法,確保歐洲的人工智慧生態系統以人為本的方法發展,尊重基本權利、人類價值觀、建立信任,建立意識,瞭解如何從眼前發生的這場人工智慧革命中獲得最大收益。
通過為行業定義一個基於風險的分層系統,並具有匹配的監管水準,《人工智慧法案》旨在促進合乎道德的人工智慧發展。它包括一個強大的治理框架,用於生成式人工智慧模型、人工智慧驅動的監控、生物識別技術和透明度標準等。預計《人工智慧法案》將為其他尚未制定人工智慧法規的政府設定基準,其影響可能會蔓延到非歐盟市場。正如哥倫比亞大學法學教授阿努·布拉德福德(Anu Bradford)對美聯社所說:“畢竟,為不同的市場重新訓練不同的模型是沒有效率的。該協定是在歐盟為規範科技行業而做出的一系列強有力的裁決之後達成的,例如《數字市場法》和《數位服務法》。
近年來,數字隱私一直是相當熱門的話題——消費者明確要求,但科技巨頭卻很少授予。然而,在 2023 年,隨著大型科技公司最近改進了他們的隱私保護措施,事態似乎發生了有利於消費者的轉變。
蘋果對消費者隱私並不陌生,進一步加強了其設備的隱私保護,並在iOS 17.2中引入了“聯繫人密鑰驗證”,允許使用者驗證 Messenger 聊天記錄,從而避免模仿者可能的詐騙。谷歌宣佈,谷歌地圖的位置記錄將很快直接保存在個人設備上,而不是雲端,以加強隱私。值得注意的是,Meta 開始為 Facebook Messenger 聊天推出端到端加密,這是其迄今為止最大的隱私改進之一。
閱讀 《Fast Company 》瞭解更多資訊。
在我們的月度時事通訊《Tea O'Clock》中發現所有最新新聞、文章、網路研討會重播和 55 項活動。