9 月,OpenAI 推出了最新的人工智慧模型 o1(內部稱為「草莓」),這是即將推出的專注於高級推理能力的模型系列中的第一個。該公司設計該模型是為了處理需要複雜推理的複雜任務,例如多步驟數學問題和複雜的編碼挑戰。與先前的模型不同,o1 強調更長的處理階段,在產生回應之前徹底分析查詢,採用模仿人類認知過程的「思維鏈」提示技術。這種方法旨在提高輸出的準確性和細微差別,標誌著人工智慧的重大進步。
雖然o1 仍處於早期階段,缺乏ChaGPT 的一些功能,例如網頁瀏覽和文件上傳,但它在測試中表現出了令人印象深刻的表現,在國際數學奧林匹克資格考試中達到了83% 的準確率,這是一項值得注意的成績。 OpenAI 也發布了縮小版 o1-mini,專為經濟高效的程式碼產生任務而設計,在 STEM 相關評估中的表現幾乎與 o1 相同。這兩個版本最初都可供 ChatGPT Plus 和 Team 用戶使用,並計劃在未來擴大訪問範圍,儘管開發人員訪問的定價高於以前的型號。
請造訪技術入口網站以了解更多資訊。
歐洲法院做出裁決,限制 Meta 無限期保留用於廣告的用戶資料的能力,之後 Meta 在歐盟面臨重大挑戰。法院強調要遵守《一般資料保護規範》(GDPR),該規範規定了嚴格的資料最小化原則,這可能會讓 Meta 面臨高達數十億美元的罰款。
這項裁決源於隱私倡導者 Max Schrems 的挑戰,不僅限制資料保留做法,還禁止使用敏感資訊進行廣告定位。這可能會影響 Meta 的收入,因為其全球廣告收入的約 10% 來自歐盟。
隨著 Meta 適應這些新法規,數位廣告格局正在轉向更加重視隱私,這對技術創新和監管合規之間的平衡至關重要。
更多資訊請上TechCrunch
CNIL(法國資料保護局)發布了改善行動應用程式隱私保護的最終建議,將於2025 年開始實施。之增加。 CNIL 的建議針對行動生態系統中的各個利害關係人,包括發行商、開發人員以及 SDK、應用程式商店和作業系統供應商。它們的目的是澄清角色和責任,改進有關數據使用的用戶信息,並確保數據處理的同意是知情和自願的。
這組建議源自於與行動利害關係人的廣泛討論和公眾回饋,從而使強制性要求和最佳實踐之間有了更精確的區別。該指南強調了有關數據權限的透明溝通的重要性,以及非必要數據處理(例如定向廣告)必須徵得用戶同意的必要性。 CNIL 計劃繼續支持該行業的發展(包括透過資訊豐富的網路研討會),並將於 2025 年初啟動合規調查活動,以確保遵守這些隱私標準。同時,監管機構將繼續處理與行動應用程式中的用戶追蹤和同意問題相關的投訴並進行調查。
更多詳情可參考CNIL官方網站。
在我們的月度時事通訊《Tea O'Clock》中發現所有最新新聞、文章、網路研討會重播和 55 項活動。