人工智能模型ChatGPT的開發商OpenAI過去一星期內亂,將會復職的行政總裁阿爾特曼早前被董事會辭退的原因,相信是因為內部幾名研究人員致函董事會,指一項新發現可能威脅人類,顯示OpenAI內部對於人工智能在商業化和安全方面的觀念分歧。有份創辦OpenAI的Tesla行政總裁馬斯克,在X平台帖文指,極度令人擔憂。

外電引述知情人士透露,幾名研究人員在阿爾特曼離職前4日,向董事會發信,表示一項新發現可能對人類有潛在危險,這項技術與使用電腦生成數據來協助訓練模型有關,而並非現時普遍所用的網絡個人數據,技術由發起兵變的OpenAI第三號人物、前首席科學家蘇茨克維牽頭。

之後兩位高級研究人員在這項技術基礎上,構建了名為「Q*」的模型,將能解決之前從未見過的數學問題。消息稱,雖然數學成績只達到小學水平,但取得好成績讓研究人員對「Q*」未來可成功非常樂觀。

有內部人士指,這樣OpenAI有可能實現超級智能突破,即通用人工智能AGI。OpenAI將AGI定義為比人類更聰明的人工智能系統,研究人員認為數學是生成式人工智能發展的前沿。目前,生成式人工智能擅長透過統計,預測下一個單字來寫作和翻譯語言,而同一問題的答案,可能大不相同,但征服了數學能力,意味著人工智能將擁有類似人類智慧的更強推理能力。

知情人士又說,微軟行政總裁納德拉告知員工,指這封有關「Q*」實現突破的信件,正是促使董事會辭退阿爾特曼的導火線。

阿爾特曼上星期曾公開透露這項技術進展,形容是揭開未知的面紗,推動發展前沿。

亦有傳媒指,這封信直接導致OpenAI內亂,首先是牽頭發展這項技術的蘇茨克維對技術持保留態度,於是帶頭發起罷免阿爾特曼。他作為AI保守派,早在今年7月就組建團隊,致力限制AI潛在的安全威脅。 

另外,在阿爾特曼離開後,兩名高級研究員與總裁布羅克曼相繼辭職,亦證實雙方在商業化和安全性方面的觀念分歧。