<abbr id="gucoo"></abbr>
<li id="gucoo"></li>
  • 
    
  • <abbr id="gucoo"></abbr>
    <li id="gucoo"><source id="gucoo"></source></li>
    <rt id="gucoo"></rt>
  • 用戶登錄投稿

    中國作家協會主管

    用未來眼光與理性約束開發AI能力極限 
    來源:光明日報客戶端 | 王永鋒  2021年01月13日08:24
    關鍵詞:人工智能

    前不久,一段熱舞視頻引發不少人的圍觀和討論。跳舞的不是人類,而是著名機器人公司旗下的幾款機器人,繼后空翻、戶外奔跑后,它們挑戰起了更高難度的舞蹈動作。沒有四肢僵硬感,動作與音樂節奏之和諧讓人驚呼,以至于有人誤以為是計算機生成圖像(CGI)。而就在這之前,谷歌旗下的人工智能公司開發的程序AlphaFold在一個蛋白質結構預測大賽中打敗100多個參賽團隊、奪得冠軍,并“有史以來將蛋白質結構預測這項任務做到基本接近實用的水平”。

    人工智能取得每一次新進展和突破,在引來部分人歡呼的同時,警惕之聲也幾乎隨之而起。在影視領域,近年來的流行作品,如《星球大戰》《終結者》《黑鏡》《西部世界》也都是以人工智能為主題,是人們對該話題的關注及情緒的另一種投射。

    對于人工智能,大眾估計都不那么陌生。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法及應用系統的一門新的技術科學。簡單來說,人工智能目的就是讓機器能夠像人一樣思考,讓機器擁有智能,可以做出模糊的判斷,而非用于計算有確切答案的問題,例如一加一等于幾。

    機器學習是實現人工智能的方法,也是人工智能的核心領域,其原理是使用算法對大量的數據進行解析,模擬或實現人類的學習行為,從而獲取新的技能來完成任務。傳統的機器學習算法已經應用于指紋、人臉識別等領域。深度學習是機器學習的一個子集,用于建立、模擬人腦進行分析學習的神經網絡,并模仿人腦的機制來解釋數據的一種技術。

    社會科學中將人類的心理活動劃分為三種基本形式:知、情、意,對應于人工智能的三個層次,運算智能、感知智能、認知智能。目前,人工智能仍處于感知智能,即弱人工智能的發展階段,也是人類對AI應用最廣泛的階段。例如語言識別、自動駕駛、圖像識別、移動醫療等,給人類社會帶來了便捷與福利,將AI應用到金融及教育行業,創造了極大的社會價值。而在科幻電影中,涉及到的人工智能自主意識的覺醒則屬于強人工智能,如今的研究技術尚達不到。

    不過,就像人類生命的進化一樣,AI不會只停留在感知智能的基礎階段,當各方面條件完善后,它會邁向智慧階段,擁有認知能力與更高級的技能。而從弱到強的跨越,也是人類和AI逐漸交匯的過程。

    那么,我們該為人工智能的崛起而感到畏懼嗎?一直以來,“人工智能威脅論”的聲音從未停止。霍金就曾指出,人工智能的崛起很有可能導致人類文明最終走向終結。試想,機器在幾乎所有領域都比人類大腦聰明很多,包括科學創新、通識和社交技能,這是一件多么可怕的事情。神經學家大衛·伊格爾曼稱:“人工智能在理解道德和法律上存在先天缺陷。”具有深度學習能力的AI,功能越來越強大,其自主決策建立在龐大的數據驅動下,是成千上萬次機器學習的結果,但是缺乏真實性和可問責性。人類一旦想要改變這種決策,需要更多的數據與之博弈,其難度可想而知。因此,要加強對人工智能系統倫理道德和法律的約束,確保其發展對人類和環境有利。

    在現實生活中,人工智能已經顯示出其極大的優越性與替代性。AI可以替代人類更好地完成工作,從服務業到制造業,這些工作幾乎覆蓋人類生產生活的各個方面。工廠的自動化使很多傳統制造業工人面臨失業,如今AI的迅速崛起將會使失業范圍擴大,留給人類的崗位進一步被局限,由此所導致的社會發展不平衡,引起整個社會的焦慮。

    另外,人工智能的運轉建立在大量數據的基礎上,很多情況下我們的個人隱私數據得不到保障。平臺根據用戶的瀏覽歷史等,通過機器算法自動判斷并向用戶推薦符合需求和喜好的內容,機器對我們的了解越多,就越能夠影響人的決策和行為,反而使人類的行為越來越機械化。

    如何合理應用人工智能從而更好的造福社會,應該是當前的最主要和重要的話題。大數據時代,對人工智能的監管和督促也必不可少。有互聯網從業者指出,人工智能只是一個新技術和工具,它會結合在所有領域,通過大數據,提升各個行業發展。誠然,人工智能應該是作為一種工具的存在,將它與各行各業的發展相結合,使其促進社會的協同發展。

    以核物理為基礎的原子彈對生命的傷害難以估量,然而將其應用到能源與醫療方面,卻對人類的生產生活產生了極大的推動作用。與核物理的發展相似,人工智能不斷拓寬人類對能力的認知邊界,并具有巨大的兩面性,屬于超前的研究,很可能會觸及到倫理道德底線,因此需要用未來的眼光和理性的約束去開發其能力極限。

    (作者系北京大學信息科學技術學院研究員)