在线观看日韩三级视频,国产久久精品在线播放,精品人妻伦一二三区久久简爱,久久亚洲精品一区二区,日韩人妻一区二区av,欧美黑人又粗又大高潮喷水,国产91精品在线播放,国产欧美日韩一区二区三视频,亚洲一区二区伦理在线

設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

奧爾特曼 400 萬(wàn)年薪急招“末日主管”!上崗即“地獄模式”

新智元 2025/12/29 15:00:03 責(zé)編:清源

奧爾特曼掏出「400 萬(wàn) + 股權(quán)」招人,不是來(lái)卷模型智商,而是給 OpenAI 買(mǎi)一份「AI 失控險(xiǎn)」—— 一上崗就下深水、當(dāng)救火隊(duì)長(zhǎng)。

奧爾特曼開(kāi)價(jià) 400 萬(wàn),要為 OpenAI 買(mǎi)一份「安全保險(xiǎn)」!

近日,奧爾特曼發(fā)帖要為 OpenAI 招募一位「準(zhǔn)備工作負(fù)責(zé)人(Head of Preparedness)」。

55.5 萬(wàn)美元年薪,外加股權(quán),換算成人民幣大約 400 萬(wàn)起步。

在硅谷,「55.5 萬(wàn)美元基礎(chǔ)年薪 + 股權(quán)」,屬于極少見(jiàn)的高底薪高管崗,底薪越高,往往意味著崗位稀缺、責(zé)任邊界更大。

雖然 OpenAI 并未公開(kāi)股權(quán)規(guī)模,該崗位薪酬總包可能達(dá)到百萬(wàn)美元級(jí)別。

與高薪相對(duì)應(yīng)的是極富挑戰(zhàn)性的工作內(nèi)容。

奧爾特曼為這個(gè)崗位的定調(diào)就是「充滿壓力」「要立刻下深水」:

這會(huì)是一份壓力很大的工作,而且你幾乎一上來(lái)就要跳進(jìn)深水區(qū)。

關(guān)鍵時(shí)刻的關(guān)鍵角色

這份工作更像是一個(gè)「救火隊(duì)長(zhǎng)」,甚至可以稱(chēng)為「末日主管」。

不是為了把模型做得更聰明,而是要為不斷變強(qiáng)的模型套上「安全圍欄」,管控好隨之而來(lái)的風(fēng)險(xiǎn)。

用奧爾特曼的話說(shuō),這是一個(gè)「關(guān)鍵時(shí)刻的關(guān)鍵角色」,模型正在飛快變強(qiáng),能做出很多很棒的事,但也開(kāi)始帶來(lái)「真實(shí)的挑戰(zhàn)」。

他在招聘帖子中特別點(diǎn)名了兩件事,這是在過(guò)去的一年中發(fā)現(xiàn)的:

模型對(duì)心理健康的潛在影響;

模型在計(jì)算機(jī)安全上強(qiáng)到一個(gè)新階段,已經(jīng)開(kāi)始能發(fā)現(xiàn)「高危漏洞」。

奧爾特曼強(qiáng)調(diào),我們?cè)诤饬磕芰υ鲩L(zhǎng)方面已經(jīng)有了很扎實(shí)的基礎(chǔ),但接下來(lái)的挑戰(zhàn)是如何防止這些能力被濫用,如何在產(chǎn)品里、以及在現(xiàn)實(shí)世界里把這些壞處壓到最低,同時(shí)還能讓大家繼續(xù)享受它帶來(lái)的巨大好處。

他認(rèn)為這是一個(gè)巨大的難題而且?guī)缀鯖](méi)有先例,是一個(gè)需要「更精細(xì)理解和更細(xì)致度量的世界」。

許多聽(tīng)起來(lái)很不錯(cuò)的想法,落到現(xiàn)實(shí)里都會(huì)遇到一些棘手的例外和邊界情況。

因此,新招募的這位「準(zhǔn)備工作負(fù)責(zé)人」的職責(zé),就是要解決在模型能力持續(xù)發(fā)展和應(yīng)用不擴(kuò)大的前提下,去設(shè)定一道安全防線:

如何用最前沿的能力去武裝網(wǎng)絡(luò)安全防守方,同時(shí)確保攻擊者沒(méi)法拿來(lái)作惡。

奧爾特曼也為這份工作定下了目標(biāo):

最理想的情況,是通過(guò)讓所有系統(tǒng)都變得更安全來(lái)實(shí)現(xiàn),比如更安全地發(fā)布在生物領(lǐng)域的 AI 能力,以及提升自我改進(jìn)的系統(tǒng)能夠更安全地運(yùn)行的信心。

模型變強(qiáng),風(fēng)險(xiǎn)也更加「硬核」

過(guò)去我們談 AI 風(fēng)險(xiǎn),常常像在發(fā)布天氣預(yù)報(bào):可能下雨,最好帶傘。

隨著大模型能力的提升,以及技術(shù)的快速滲透,當(dāng)前的 AI 風(fēng)險(xiǎn)更像是到了烏云壓城的關(guān)頭:雨已經(jīng)落下來(lái)了,而且風(fēng)向還在變。

一方面是模型更強(qiáng)了。

奧爾特曼提到一個(gè)標(biāo)志性變化:

模型在計(jì)算機(jī)安全方面進(jìn)入新階段,「開(kāi)始能發(fā)現(xiàn)關(guān)鍵漏洞」。

這句話細(xì)思極恐 —— 當(dāng)模型能替你找漏洞,它同樣可能替別人找漏洞。

正所謂道高一尺,魔高一丈。

另一方面,模型技術(shù)的普及也帶來(lái)了更多「硬風(fēng)險(xiǎn)」,這在 2025 年已經(jīng)看到一些苗頭。

比如,模型對(duì)心理健康的潛在影響。

進(jìn)入 2025 年我們也看到了許多關(guān)于「AI 精神病」的報(bào)道:

有人把與機(jī)器人聊天當(dāng)作心理治療的替代方案,而在某些情況下,這會(huì)加劇心理健康問(wèn)題,助長(zhǎng)妄想等令人擔(dān)憂的行為。

今年 10 月,OpenAI 也曾表示正與心理健康專(zhuān)業(yè)人士合作,改善 ChatGPT 對(duì)出現(xiàn)精神錯(cuò)亂或自殘等令人擔(dān)憂行為的用戶的互動(dòng)方式。

不止心理健康,還有報(bào)道指出 ChatGPT 在法律文件中產(chǎn)生幻覺(jué),引發(fā)大量投訴。

此外,還有 ChatGPT、Sora 等應(yīng)用產(chǎn)品上線后帶來(lái)的一系列諸如深度偽造以及社會(huì)倫理等方面的挑戰(zhàn)。

比如 Sora 曾在 2025 年 10 月因用戶生成「不尊重」內(nèi)容而暫停 / 封禁對(duì)馬丁?路德?金相關(guān)視頻的生成,并同步加強(qiáng)歷史人物肖像相關(guān)的護(hù)欄與退出機(jī)制。

因此,奧爾特曼要求這份工作,要把安全從能力評(píng)估、威脅建模、緩解措施做成一條可落地的鏈條,形成一個(gè)「連貫、嚴(yán)謹(jǐn)且可操作、可擴(kuò)展的安全流程」。

填補(bǔ)「安全空心化」的焦慮

這次招聘,更像是對(duì) OpenAI 安全團(tuán)隊(duì)的緊急補(bǔ)位與強(qiáng)化。

OpenAI 的核心使命是以造福全人類(lèi)的方式開(kāi)發(fā)人工智能,從一開(kāi)始它就將安全協(xié)議 (safety protocols) 作為其運(yùn)營(yíng)的核心部分。

然而,一些前員工表示,隨著 OpenAI 開(kāi)始發(fā)布產(chǎn)品以及盈利壓力的增加,該公司開(kāi)始將利潤(rùn)置于安全之上。

一個(gè)標(biāo)志性事件,就是「超級(jí)對(duì)齊」(superalignment)團(tuán)隊(duì)的解散。

2024 年 5 月,OpenAI「超級(jí)對(duì)齊」團(tuán)隊(duì)解散,該團(tuán)隊(duì)工作將被并入 / 吸收進(jìn)其他研究工作。

超級(jí)對(duì)齊團(tuán)隊(duì)的兩位共同負(fù)責(zé)人 Ilya Sutskever、Jan Leike 也相繼離開(kāi),其中 Leike 在離職時(shí)還尖銳地批評(píng)了公司,公司已經(jīng)迷失了確保技術(shù)安全部署的使命:

「構(gòu)建比人類(lèi)更聰明的機(jī)器本身就是一項(xiàng)危險(xiǎn)的嘗試…… 但在過(guò)去幾年里,安全文化和流程已經(jīng)讓位于光鮮亮麗的產(chǎn)品」。

Leike 表示 OpenAI 未能投入足夠的計(jì)算資源來(lái)研究如何引導(dǎo)和控制那些遠(yuǎn)比我們聰明的人工智能系統(tǒng)。

另外一名前員工 Daniel Kokotajlo 也表示他辭職是因?yàn)樗笇?duì)公司在通用人工智能 (AGI) 出現(xiàn)時(shí)能否負(fù)責(zé)任地行事逐漸失去信心」。

當(dāng)時(shí)奧爾特曼就 Leike 的發(fā)帖回復(fù),認(rèn)為他說(shuō)的對(duì):「我們還有很多事情要做;我們承諾會(huì)去做」。

OpenAI 聯(lián)合創(chuàng)始人兼總裁 Greg Brockman 也聲稱(chēng)公司愿意因安全問(wèn)題推遲產(chǎn)品發(fā)布:

「首次弄清楚如何讓一項(xiàng)新技術(shù)變得安全并非易事,我們既相信要實(shí)現(xiàn)巨大的潛在收益,也致力于努力降低重大風(fēng)險(xiǎn)」。

在超級(jí)對(duì)齊團(tuán)隊(duì)解散大概兩個(gè)月后,7 月 AI 安全負(fù)責(zé)人 Aleksander Madry 被調(diào)崗。

Aleksander M?dry – MIT EECS

OpenAI 原 AI 安全負(fù)責(zé)人 Aleksander Madry

10 月 23 日,OpenAI 長(zhǎng)期政策研究人員、AGI readiness 團(tuán)隊(duì)高級(jí)顧問(wèn) Miles Brundage 離開(kāi) OpenAI。

隨著 Brundage 離開(kāi),AGI readiness 的子團(tuán)隊(duì) economic research division 將轉(zhuǎn)到新任首席經(jīng)濟(jì)學(xué)家 Ronnie Chatterji 之下,其余部分則分散到其他部門(mén)。

Kokotajlo 曾表示,「OpenAI 最初約有 30 人研究與通用人工智能 (AGI) 相關(guān)的安全問(wèn)題,一系列的離職使得這一人數(shù)減少了近一半」。

安全團(tuán)隊(duì)的負(fù)責(zé)人及員工離職、調(diào)崗,項(xiàng)目被不斷分拆、重組,由此帶來(lái)的「安全空心化」焦慮,正是這次奧爾特曼高調(diào)招聘的大背景。

當(dāng)「前沿模型」的能力逼近更高邊界時(shí),谷歌、Anthropic、OpenAI、xAI 等大模型廠商在 AI 軍備競(jìng)賽中,都要解決同一個(gè)問(wèn)題:怎么在加速中不失控?

而此次招募的「準(zhǔn)備工作負(fù)責(zé)人」的工作,則是要把不斷變強(qiáng)的模型,在現(xiàn)實(shí)使用場(chǎng)景中轉(zhuǎn)化為一個(gè)能評(píng)估、能落地、能迭代的「可執(zhí)行的安全管線」。

當(dāng) AI 競(jìng)賽進(jìn)入緊要關(guān)頭,能夠守住安全底線才是不敗的關(guān)鍵。

參考資料:

  • https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12

本文來(lái)自微信公眾號(hào):新智元(ID:AI_era)

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:OpenAI奧爾特曼

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知