當美國開放人工智能研究中心(OpenAI)發布其人工智能(AI)機器人ChatGPT之后,這家人工智能公司的主要投資方之一——微軟公司的市值飆升了1150億美元,漲幅約6.5%。 法國《世界報》網站近日以《“AI正在經歷其'iPhone時刻’并將像2007年的蘋果公司那樣顛覆社會”》為題發表文章說,華爾街認識到,一場革命正在上演:AI正在經歷其“iPhone時刻”,并將像2007年的蘋果公司那樣顛覆社會。 事實上,幾個月以來,華爾街已經不愿再聽到人們談論大型科技公司時的論調:亞馬遜、特斯拉、“字母表”、微軟、元宇宙平臺公司……它們的好日子過去了。趨勢發生了反轉,AI引擎未來需要數十億美元的投資,只有這些巨頭有條件開發它們。 谷歌前老板埃里克·施密特、美國前國務卿基辛格和美國麻省理工學院計算機學院院長丹尼爾·胡滕洛赫爾在《華爾街日報》發表的論壇文章中也解釋了這一點。他們認為,市場應當由幾種大型AI模型構成,其價值超過10億美元,受到成千上萬臺計算機操控,公司可以推出訂閱服務。從邏輯上講,“這些模型的設計與管理將高度集中”。 施密特、基辛格和胡滕洛赫爾沒有嘲笑ChatGPT因“年少”而犯下的個別錯誤,而是提出了幾個真正的問題。他們描述稱,這是自印刷術發明以來的空前“哲學與實踐挑戰”和“智能革命”。印刷術催生了由可復制經驗的共享構成的現代科學方法。人工智能則不然,它基于地球上積攢的未經核實的數十億數據,得出沒有來源的結果。作者寫道:“啟蒙運動時期的科學是在積累確定性。新的人工智能產出的則是累積的模糊性。” AI的回答源自何處?沒有人知道答案,但最終占據上風的正是它的回答。“模型給出表面上完美的回答,將引發對這些結果的過度信任。”作者對此表達了擔憂,他們想知道:“醫生將從何時開始不再喜歡質疑軟件給出的答案?” 這事關整個社會。“AI將影響外交政策和安全戰略。”他們斷言,同時提出疑問:“我們未來是否能夠學會質疑而非服從?還是說我們最終會被迫順從?AI是否會產生惡意呢?”作者甚至擔心,一種擁護AI的玄學將會崛起,它可能會控制大眾。“認識世界的第三種方式或將出現,它既非人類的理智,也不是信仰。在這樣一個世界中,社會將變成哪般模樣?”圍繞AI產生的疑問好像太多了。 而英國《新科學家》網站近日則報道說,微軟旗下的源碼托管服務公司(GitHub)不久前也推出了一款商業工具,可以幫助程序員利用AI編寫軟件。微軟公司利用這款AI工具從人類那里得到文本指令,再將其解讀為可以直接控制機器人的代碼。在一次測試中,ChatGPT編寫代碼,并指揮機器臂用木塊拼出微軟標識。在另一次測試中,它引導一架無人機到達一個航路點,同時避開障礙物。微軟公司在一篇博客文章中說,這項研究旨在“測試ChatGPT是否能夠超越文本思維,以及對物理世界進行推理,幫助機器人完成任務”。 機器人通常由軟件控制,這些軟件由人類編寫,會發出精確的指令。它們也可以由某種形式相對簡單的神經網絡AI來控制,這些AI可以基于大量實例來學習如何執行任務。 ChatGPT并非直接、實時地控制機器人,只是生成控制它的代碼。微軟公司在博客中說,ChatGPT的輸出不應在未經“謹慎分析”的情況下直接應用到機器人上,但專家警告說,僅僅產生讓AI控制機器的想法,也是危險的。 奧地利維也納大學的馬克·克克爾貝格說,或許需要制定法規,以確定哪些領域可以使用AI,如果出了問題又誰由該負責。 他說:“只說'讓我們把這些計算機的控制權交給AI’,這是非常危險的事情。當代人工智能的問題在于,它對用戶不透明。這是一個巨大的問題。” 還有人對語言模型通過編碼指令指揮機器人完成復雜任務的能力持懷疑態度。英國德蒙特福特大學的凱瑟琳·理查森說,AI語言模型令人信服,但它們的實際能力——包括控制機器人的適應性——常常被夸大了。 她說:“我認為微軟以及大多數機器人設計者,過分夸大了它們能做和不能做的事情。”(文/張百慧 王棟棟 孫青昊) (更多國際新聞,參見《參考消息》數字報,點擊此處可訂閱或續訂)微信審核 | 夏子怡 內容編審 | 廉海東 微信編輯 | 郭慶娜 |
|