生成式人工智能模型ChatGPT的開發商OpenAI,過去一星期內亂。有報道指原因正是內部有研究人員認為正研究的新技術可能威脅人類。事實上AI或「通用人工智能」(AGI)發展過程中,一直有聲音擔心AI會取代人類部份工作或威脅人類安全。香港人工智能及數據實驗室(HKAI Lab)執行總監梁季笙說,每逢市場推出新科技,都會出現恐慌或擔憂,但科技潮流沒有辦法停下,所以科技企業在發展過程中亦要思考新科技對社會帶來的負面影響,要知道技術好處,亦要反思背後的壞處,這是科企要做的事。
梁季笙又指,如果因為市場擔憂而停止研究,就會令所有發展停頓。他舉例,火及電對人類都有危險性,恐懼亦是合理,但總不能因為害怕而不使用這兩項重要元素,AI亦同樣,只要知道好處及壞處,作適當監測和改良,從中獲得進步。他指,在AI發展中,各國都有不同規範,所以在幾年前引伸出討論AI倫理,從而發展出「可解釋AI」(Explainable AI),讓專家能夠理解人工智能成果的方法與技術,在邏輯上說服別人,令使用者更清楚AI從何得出分析。
他指,未來AI應用方面仍要做更多解說工作,他以自動駕駛為例,雖然全球很多地方仍未全面合法使用自動駕駛,而市場對自動駕駛可能仍有不少憂慮,但不代表不能繼續發展相關技術。現時較新款的汽車,系統上亦有不少接近自動駕駛的技術,如可偵測車旁左右是否有其他車及行人經過、偵測到有障礙物時會協助剎車等,這些都是自動駕駛的必要功能,而車廠亦沒有因為接受程度低而停止發展,反而一邊慢慢推出,一邊再作監測,令市場更容易適應新技術。