前言:一篇好文章的誕生,需要你不斷地搜集資料、整理思路,本站小編為你收集了豐富的人工智能神經網絡概念主題范文,僅供參考,歡迎閱讀并收藏。
關鍵詞:人工智能 機器學習 機器人情感獲得 發展綜述
中圖分類號:TP18 文獻標識碼:A 文章編號:1003-9082 (2017) 04-0234-01
引言
人類自從工業革命結束之后,就已然開始了對人工智能的探索,究其本質,實際上就是對人的思維進行模仿,以此代替人類工作。人工智能的探索最早可以追溯到圖靈時期,那時圖靈就希望未來的智能系統能夠像人一樣思考。在20世紀五十年代,人工智能被首次確定為一個新興的學科,并吸引了大批的學者投入到該領域的研究當中。經過長時間的探索和嘗試,人工智能的許多重要基本理論已經形成,如模式識別、特征表示與推理、機器學習的相關理論和算法等等。進入二十一世紀以來,隨著深度學習與卷積神經網絡的發展,人工智能再一次成為研究熱點。人工智能技術與基因過程、納米科學并列為二十一世紀的三大尖端技術, 并且人工智能涉及的學科多,社會應用廣泛,對其原理和本質的理解也更為復雜。 一、人工智能的發展歷程
回顧人工智能的產生與發展過程 ,可以將其分為:初期形成階段,綜合發展階段和應用階段。
1.初期形成階段
人工智能這一思想最早的提出是基于對人腦神經元模型的抽象。其早期工作被認為是由美國的神經學家和控制論學者 Warren McCulloch與Walter Pitts共同完成的。在1951年,兩名普林斯頓大學的研究生制造出了第一臺人工神經元計算機。而其真正作為一個新的概念被提出是在1956年舉行的達茅斯會議上。由麥卡錫提議并正式采用了“人工智能”(Artificial Intelligence)礱枋穌庖謊芯咳綰斡沒器來模擬人類智能的新興學科。1969年的國際人工智能聯合會議標志著人工智能得到了國際的認可。至此,人工智能這一概念初步形成,也逐漸吸引了從事數學、生物、計算機、神經科學等相關學科的學者參與該領域的研究。
2.綜合發展階段
1.7 7年, 費根鮑姆在第五屆國際人工智能聯合會議上正式提出了“知識工程”這一概念。而后其對應的專家系統得到發展,許多智能系統紛紛被推出,并應用到了人類生活的方方面面。20世紀80年代以來,專家系統逐步向多技術、多方法的綜合集成與多學科、多領域的綜合應用型發展。大型專家系統開發采用了多種人工智能語言、多種知識表示方法、多種推理機制和多種控制策略相結合的方式, 并開始運用各種專家系統外殼、專家系統開發工具和專家系統開發環境等等。在專家系統的發展過程中,人工智能得到了較為系統和全面的綜合發展,并能夠在一些具體的任務中接近甚至超過人類專家的水平。
3.應用階段
進入二十一世紀以后,由于深度人工神經網絡的提出,并在圖像分類與識別的任務上遠遠超過了傳統的方法,人工智能掀起了前所未有的。2006年,由加拿大多倫多大學的Geoffery Hinton及其學生在《Science》雜志上發表文章,其中首次提到了深度學習這一思想,實現對數據的分級表達,降低了經典神經網絡的訓練難度。并隨后提出了如深度卷積神經網絡(Convolutional Neural Network, CNN),以及區域卷積神經網絡(Region-based Convolutional Neural Network, R-CNN),等等新的網絡訓練結構,使得訓練和測試的效率得到大幅提升,識別準確率也顯著提高。
二、人工智能核心技術
人工智能由于其涉及的領域較多,內容復雜,因此在不同的應用場景涉及到許多核心技術,這其中如專家系統、機器學習、模式識別、人工神經網絡等是最重要也是發展較為完善的幾個核心技術。
1.專家系統
專家系統是一類具有專門知識和經驗的計算機智能程序系統,通過對人類專家的問題求解能力建模,采用人工智能中的知識表示和知識推理技術來模擬通常由專家才能解決的復雜問題,達到具有與專家同等解決問題能力的水平。對專家系統的研究,是人工智能中開展得較為全面、系統且已經取得廣泛應用的技術。許多成熟而先進的專家系統已經被應用在如醫療診斷、地質勘測、文化教育等方面。
2.機器學習
機器學習是一個讓計算機在非精確編程下進行活動的科學,也就是機器自己獲取知識。起初,機器學習被大量應用在圖像識別等學習任務中,后來,機器學習不再限于識別字符、圖像中的某個目標,而是將其應用到機器人、基因數據的分析甚至是金融市場的預測中。在機器學習的發展過程中,先后誕生了如凸優化、核方法、支持向量機、Boosting算法等等一系列經典的機器學習方法和理論。機器學習也是人工智能研究中最為重要的核心方向。
3.模式識別
模式識別是研究如何使機器具有感知能力 ,主要研究圖像和語音等的識別。其經典算法包括如k-means,主成分分析(PCA),貝葉斯分類器等等。在日常生活各方面以及軍事上都有廣大的用途。近年來迅速發展起來應用模糊數學模式、人工神經網絡模式的方法逐漸取代傳統的基于統計學習的識別方法。圖形識別方面例如識別各種印刷體和某些手寫體文字,識別指紋、癌細胞等技術已經進入實際應用。語音識別主要研究各種語音信號的分類,和自然語言理解等等。模式識別技術是人工智能的一大應用領域,其非常熱門的如人臉識別、手勢識別等等對人們的生活有著十分直接的影響。
4.人工神經網絡
人工神經網絡是在研究人腦的結構中得到啟發, 試圖用大量的處理單元模仿人腦神經系統工程結構和工作機理。而近年來發展的深度卷積神經網絡(Convolutional neural networks, CNNs)具有更復雜的網絡結構,與經典的機器學習算法相比在大數據的訓練下有著更強的特征學習和表達能力。含有多個隱含層的神經網絡能夠對輸入原始數據有更抽象喝更本質的表述,從而有利于解決特征可視化以及分類問題。另外,通過實現“逐層初始化”這一方法,實現對輸入數據的分級表達,可以有效降低神經網絡的訓練難度。目前的神經網絡在圖像識別任務中取得了十分明顯的進展,基于CNN的圖像識別技術也一直是學術界與工業界一致追捧的熱點。
三、機器人情感獲得
1.智能C器人現狀
目前智能機器人的研究還主要基于智能控制技術,通過預先定義好的機器人行動規則,編程實現復雜的自動控制,完成機器人的移動過程。而人類進行動作、行為的學習主要是通過模仿及與環境的交互。從這個意義上說,目前智能機器人還不具有類腦的多模態感知及基于感知信息的類腦自主決策能力。在運動機制方面,目前幾乎所有的智能機器人都不具備類人的外周神經系統,其靈活性和自適應性與人類運動系統還具有較大差距。
2.機器人情感獲得的可能性
人腦是在與外界永不停息的交互中,在高度發達的神經系統的處理下獲得情感。智能機器人在不斷的機器學習和大數據處理中,中樞處理系統不斷地自我更新、升級,便具備了獲得情感的可能性及幾率。不斷地更新、升級的過程類似于生物的進化歷程,也就是說,智能機器人有充分的可能性獲得與人類同等豐富的情感世界。
3.機器人獲得情感的利弊
機器人獲得情感在理論可行的情況下,伴之而來的利弊則眾說紛紜。一方面,擁有豐富情感世界的機器人可以帶來更多人性化的服務,人機合作也可進行地更加深入,可以為人類帶來更為逼真的體驗和享受。人類或可與智能機器人攜手共創一個和諧世界。但是另一方面,在機器人獲得情感時,機器人是否能徹底貫徹人類命令及協議的擔憂也迎面而來。
4.規避機器人情感獲得的風險
規避智能機器人獲得情感的風險應預備強制措施。首先要設計完備的智能機器人情感協議,將威脅泯滅于未然。其次,應控制智能機器人的能源獲得,以限制其自主活動的能力,杜絕其建立獨立體系的可能。最后,要掌控核心武器,必要時強行停止運行、回收、甚至銷毀智能機器人。
三、總結
本文梳理了人工智能的發展歷程與核心技術,可以毋庸置疑地說,人工智能具有極其廣闊的應用前景,但也伴隨著極大的風險。回顧其發展歷程,我們有理由充分相信,在未來人工智能的技術會不斷完善,難題會被攻克。作為世界上最熱門的領域之一,在合理有效規避其風險的同時,獲得情感的智能機器人會造福人類,并極大地幫助人們的社會生活。
參考文獻
[1]韓曄彤.人工智能技術發展及應用研究綜述[J].電子制作,2016,(12):95.
[2]曾毅,劉成林,譚鐵牛.類腦智能研究的回顧與展望[J].計算機學報,2016,(01):212-222.
[3]張越.人工智能綜述:讓機器像人類一樣思考
計算智能(ComputationalIntelligenee,簡稱CI),又稱軟計算,該詞于1992年被美國學者J.C.Bezdekek首次提出,1994年全計算智能大會明確提出了計算智能的概念,標志著計算智能作為一門獨立學科的誕生。傳統的人工智能問題的處理、結論的得出都需要在建立精確的數字模型的基礎上才能實現,但現實中有很多的數據都是模糊的,無法建立精確的模型,使得人工智能的應用范圍相對狹窄,而計算智能則突破了人工智能的瓶頸,以模型為基礎,模擬人的理論與方法,只需要直接輸入數據,系統就可以對數據進行處理,應用范圍更加的廣泛。計算智能的本質是一類準元算法,主要包括進化計算,人工神經網絡、模糊計算、混沌計算、細胞自動機等,其中以進化計算、人工神經網絡及模糊系統為典型代表。
1.1進化計算
進化計算是采用簡單的編碼技術來表示各種復雜的結構,并通過遺傳操作和優勝劣汰的自然選擇來指導學習和確定搜索的方向,具有操作簡單、通用性強、效率高的優點,其工作原理是通過種群的方式進行計算,借助生物進化的思想來解決問題,分為遺傳算法、進化規劃及進化策略三大類。
1.2人工神經網絡
人工神經網絡是一個高度復雜的非線性動力學系統,具有模糊推理、并行處理、自訓練學習等優勢,其工作原理是仿照生物神經網絡處理信息方式,通過不同的算法和結構,將簡單的人工神經細胞相互連接,通過大量的人工神經單元來同時進行信息的傳播,并將信息儲存在改革細胞單元的連接結構中,快速地得到期望的計算結構。生物神經網絡的細胞是在不斷的生成和更新著的,即部分細胞壞死,整個神經網絡仍能維持正常的運轉秩序而不會驟然崩潰,同樣人工神經網絡也有著這樣的特性,即使部分神經細胞發生問題,整個網絡也能夠正常的運轉。人工神經網絡按照連接方式的不同分為前饋式網絡與反饋式網絡,前饋式網絡結構中的神經元是單層排列的,分為輸入層、隱藏層及輸出層三層,信息的傳播是單向的,每個神經元只與前一層的神經元相連,即信息只能由輸出層傳向隱藏層再傳向輸入層,而不能由輸出層直接傳向輸入層;反饋式網絡結構中每個人工神經細胞都是一個計算單元,在接受信息輸入的同時還在向外界輸出著信息。不同的行業和領域可以根據自身的需要將不同的網絡結構和學習方法相結合,建立不同的人工神經網絡模型,實現不同的研究目的。
1.3模糊系統
客觀世界中的事物都具有不同程度的不確定性,如生活中的“窮與富”、美與丑”“、相關與不相關”無法用一個界線劃分清楚,對于事物不確定研究的過程中產生了模糊數學,所謂模糊性是指客觀事物差異的中間過渡中的“不分明性”。美國專家L.A.Zdahe教授首次運用了數學方法描述模糊概念,自此之后模糊數學形成了一個新的學科,并在世界范圍內發展起來,在醫學、農業等方面得到了應用。
2計算智能在機械制造中的應用
機械制造業是國民經濟的基礎產業,機械制造業的發展對于促進工業生產領域的發展,保持經濟穩步增長,滿足人們日常生活的需求,提高人們的生活質量有著重要意義。一個國家機械制造業水平的高低是衡量該國工業化程度的重要指標。由于研究角度的不同,機械制造業有著不同的分類,如國家統計局將機械制造行業分為通用設備、專用設備、交通運輸設備、電氣設備、儀器儀表及辦公設備五大類,證券市場將機械制造行業分為機械、汽車及配件、電氣設備三大子行業。根據調查顯示,2013年我國制造業產值規模突破20萬億元,同比增長17.5%,產值占世界比重的19.8%,經濟總量位居世界首位,利潤4312.6億元,增長0.33%,增加值累計同比增長10.4%。隨著計算智能研究的深入,計算智能在機械制造中得到了應用。伴隨著機械行業的飛速發展,各類生產安全事故也時有發生。造成安全事故的原因是多方面的,首先是操作人員安全意識淡薄;其次是企業的安全管理和監督缺失,我國相當多的機械制造企業不重視勞動安全衛生方面的數據統計和資料積累,為了追求最大利潤在安全生產方面投入的資金過少,缺乏對員工開展安全教育的培訓。建立科學的安全生產評價方式對于防止各類安全事故,提高安全效益有著積極意義。人工智能的安全評價方法以線性函數為基礎,而安全生產評價體系是一個復雜的系統,涉及的內容繁雜,需要考慮的因素很多,存在很大的不確定性,導致得到的結論與實際現場常常不能一致,計算智能以選擇非線性函數建立安全生產評價模型,實現對非線性函數關系的擬合,解決了這一難題。在機械制造中存在著大量的模糊信息,如機械設備的損耗、零件設計目標等信息都是用比較模糊的術語來表達,傳統的人工智能進行新的零件生產制造時,設計人員對零件進行設計,確定零件的尺寸,然后試生產零件應用在設備中,如不符合要求,再進行調整,這就要求設計人員有著豐富的知識和實踐經驗,能夠根據需要設計出適合的零件,而計算智能以系統論作為基礎的,對選擇的自變量進行適當的優化和控制,只需要設計人員將零件的形狀、大小、作用等輸入計算機,并對零件制造的程序編排,利用計算機確定零件的制造技術,同時控制零件的質量,使零件設計、制造的過程更加便捷。
3結語
關鍵詞:物聯網;LS-SVM;數據模型
中圖分類號:TP393
文獻標識碼:A
文章編號:1009-3044(2017)10-0145-02
1.引言
前神經網絡(feedforwardneuralnetwork),簡稱前饋網絡,是人工神經網絡的一種。
2.概念相關概述
2.1前饋人工神經網絡現實基礎模型
首先,生物神經元模型。人的大腦中有眾多神經元,而神經元之間需要神經突觸連接,進而構成了復雜有序的神經網絡。而神經元主要由樹突、軸突和細胞體組成。一個神經元有一個細胞體和軸突,但是卻有很多樹突。樹突是神經元的輸入端,用于接受信息,并向細胞體財團對信息。而細胞體是神經元的信息處理中心,能夠對信號進行處理。軸突相當于信息輸出端口,負責向下一個神經元傳遞信息;其次,人工神經元。人工神經元的信息處理能力十分有限,但是,由眾多人工神經元構成的神經網絡系統龐大,具有巨大的潛力,能夠解決復雜問題。人工神經網絡與生物神經網絡具有相似之處,人工神經網絡能夠從環境中獲取知識,并存儲信息。前饋人工神經網絡主要包括隱含層、輸入層和輸出層。在前饋人工神經網絡中,神經元將信號進行非線性轉換之后,將信號傳遞給下一層,信息傳播是單向的。并且,前饋人工神經網絡是人們應用最多的網絡模型,常見的有BP神經網絡、單層感知器、RBF神經網絡等模型。
2.2 LS-SVM相關概述
支撐向量機是一種基于統計學習理論的機器學習方法,能夠根據樣本信息進行非現象映射,解回歸問題的高度非現象問題。并且,支撐向量機在解決非線性、局部極小點方問題上有很大的優勢。LS-SVM也叫最小二乘支撐向量機,是支撐向量機的一種,遵循支撐向量機算法的結構風險最小化的原則,能夠將支撐向量機算法中的不等式約束改為等式約束,進而將二次問題轉換為線性方程問題,大大降低了計算的復雜性。并且,LS-SVM在運算速度上遠遠高于支持向量機。但是,LS-SVM也存在一定的缺點,在計算的過程中,LS-SVM的忽視了全局最優,只能實現局部最優。并且,LS-SVM在處理噪聲污染嚴重的樣本時,會將所有的干擾信息都擬合到模型系統中,導致模型的魯棒性降低。另外,LS-SVM的在線建模算法、特征提取方法以及LS-SVM的支持向量稀疏性都有待改進。
2.3物聯網下人工神經網絡前饋LS-SVM研究的意義
物聯網是互聯網技術的發展趨勢,為前饋人工神經網絡的發展與LS-SVM研究提供了技術保障,在物聯網背景下,研究人工神經網絡前饋LS-SVM不僅能夠創新人工神經網絡的計算方法,完善人工神經網絡在現實生活中的應用,而且對人們生活的自動化和智能化發展有著重要意義。另外,物聯網為人們對LS-SVM的研究提供了條件,在物聯網環境下,人們能夠運用信息技術深化最小二乘支撐向量機研究,不斷提高LS-SVM回歸模型的魯棒性,改進LS-SVM的特征提取方法和在線建模算法,完善計算機學習方法,提升計算機的運算速度。3基于LS―SVM的丟包數據模型
在選擇的參數的基礎上,運用IS-SVM方法,建立評估模型。本文選用LS-SVM回歸方法的原因,SVM優于神經網絡的方法主要是以下幾點:
首先,了解數據挖掘,數據挖掘前景廣闊,SVM是數據挖掘中的新方法。其次,選擇合適的數據分析方法根據數據集的大小和特征。小樣本訓練適合SVM,樣本大情況的訓練適宜神經網絡,這里用SVM。
然后,就是文獻使用SVM和PCA建立跨層的評估QOE,實驗結果表明主觀MOS評分和此評價結果具有很好的一致性。
最后,本文采用SVM基礎上的進一步拔高,LS-SVM,比SVM運行快,精確度高。srcl3_hrcl_525.yuv實驗素材的特征是具有高清性質。525序列60HZ,幀大小為1440x486字節/幀,625序列50HZ,大小同上。YUV格式是422格式即4:2:2格式的。
時域復雜度的模型如下,視頻的時域復雜度σ;編碼量化參數是Q;編碼速率為R;待定模型的參數為a和b。σ=Q(aR+b)。通過大量的實驗和理論分析,得到模型的參數:a=l 260,b=0.003。其中,編碼速率和幀率可以看作是視頻的固有屬性。高清視頻編碼速率R是512kb/s,最大幀速率為30000/1001=29.97幅,秒。量化參數是根據實驗的具體情況確定的。計算σ的值如下所示:當量化參數為31時,σ=19998720.1,當量化參數為10時,σ=6451200.03,當量化參數為5時,σ=3225600.02,當量化參數為62時,σ=39997440.2,當量化參數為100時,σ=64512000.3,當量化參數為200時,σ=129024001,當量化參數為255時,σ=164505601。
對于srcl3網絡環境建立考慮網絡丟包的視頻質量無參評估模型使用LS-SVM方法。
(1)輸入x的值。XI是量化參數,X2封包遺失率,X3單工鏈路速度,X4雙工鏈路速度,X5視頻的時域復雜度。等權的參數。
LS-SVM要求調用的參數只有兩個gam和sig2并且他們是LS-SVM的參數,其中決定適應誤差的最小化和平滑程度的正則化參數是gam,RBF函數的參數是sig2。Type有兩種類型,一種是elassfieation用于分類的,一種是function estimation用于函數回歸的。
4.機器學習和物聯網的結合
物聯網中也用到人工智能,人工智能中有機器學習,機器學習中有神經網絡。機器學習是人工智能研究的核心問題之一,也是當前人工智能研究的一個熱門方向。
關鍵詞: 機器學習 人工智能 基本模型
1.引言
“機器學習”是人工智能的重要研究領域之一。機器學習的定義是“系統通過積累經驗而改善系統自身的性能”。通俗地說,就是讓機器去學習,利用學到的知識來指導下一步的判斷。最初研究機器學習,是讓計算機具有學習的能力,以實現智能化。因為人們認為具有人工智能的系統首先必須具有學習能力。機器學習的研究始于神經元模型研究,此后又經歷了符號概念獲取、知識強化學習研究階段,至今已發展到連接學習和混合型學習研究階段。
2.機器學習系統的基本模型
根據機器學習的定義,建立如圖1所示的機器學習基本模型。
模型中包含學習系統的四個基本組成環節。
環境和知識庫是以某種知識表示形式表達的信息的集合,分別代表外界信息來源和系統具有的知識。學習環節和執行環節代表兩個過程。學習環節處理環境提供的信息,以便改善知識庫中的知識。執行環節是整個機器學習系統的核心。利用知識庫中的知識來完成某種任務,并把執行中獲得的信息送還給學習環節。
2.1機器學習的分類
很多學者從不同的角度對機器學習進行了分類,這里簡單闡述一下繼續學習策略的機器學習的種類。按照學習策略的不同,機器學習分為機械學習、歸納學習、基于解釋的學習、基于神經網絡的學習和基于遺傳算法的學習。
2.1.1機械學習
機械學習(Rote Learning)就是“死記硬背式的學習”,靠記憶存儲知識,需要時檢索已經存下來的知識使用,不需要計算和推理。機械學習的模式如下:需要解決的問題為{y,y,...,yn},輸入已知信息{x,x,...x}后,解決了該問題,于是將記錄對{{x,x,...,x},{y,y,...,y}}存入數據庫,以后當遇到問{y,y,...,y}時,檢索數據庫,即可得到問題{y,y,...,y}的解答是{x,x,...,x}。
能實現機械式學習算法的系統只需具備兩種基本技能:記憶與檢索。此外,存儲的合理安排,信息的合理結合,以及檢索最優方向的控制也是系統應該考慮的問題。該算法簡單、容易實現、計算快速,但是由于系統不具備歸納推理的功能,對每個不同的問題,即使是類似的問題,也需要知識庫中有不同的記錄。因此占用大量的存儲空間,這是典型的以空間換時間的算法。
2.1.2歸納學習
歸納學習是應用歸納推理進行學習的一種方法。歸納學習的過程是由特殊實例推導出一般情況的過程,這樣就使類似的問題可以利用同樣的方法求解。歸納學習的過程就是示例空間與規則空間的相互利用與反饋。1974年,Simon和Lea提出了雙空間模型,形象地對這一執行過程進行了描述,如圖2所示。
歸納學習算法簡單,節省存儲空間,在一段時間內得到了廣泛的應用。在應用過程中,該算法逐漸顯現出它的缺點:(1)歸納結論是通過對大量的實例分析得出的,這就要求結論的得出要有大量實例作支撐,而這在許多領域都是無法滿足的。(2)歸納結論是由不完全訓練集得出的,因而其正確性無法保證,只能使結論以一定概率成立。(3)該算法通過對實例的分析與對比得出結論,對于信息的重要性與相關關系無法辨別。
2.1.3基于解釋的學習
基于解釋的學習(Explanation-Based Learning)是運用已知相關領域的知識及訓練實例,對某個目標概念進行學習,并通過后繼的不斷練習,得到目標概念的一般化描述。該學習的執行過程如圖3所示。
這種方式的學習得到一個領域完善的知識往往是比較困難的,這就對該算法提出了更高的要求。為解決知識不完善領域的問題,有以下兩個研究方向[2]:(1)改進該算法使其在不完善的領域理論中依然有效。(2)擴充該領域的知識使其擁有更強的解釋能力。通常情況下,第二種改進方法更重要些。
2.1.4基于神經網絡的學習
神經網絡是由許多類似神經元的節點和它們之間帶權的連接組成的復雜網絡結構,是為模仿人類大腦的復雜神經結構而建立起來的抽象數據模型,希望相似的拓撲結構可以使機器像人腦一樣進行數據的分析、存儲與使用。神經網絡學習的過程就是不斷修正連接權的過程。在網絡的使用過程中,對于特定的輸入模式,神經網絡通過前向計算,產生一個輸出模式,并得到節點代表的邏輯概念,通過對輸出信號的比較與分析可以得到特定解。在整個過程中,神經元之間具有一定的冗余性,且允許輸入模式偏離學習樣本,因此神經網絡的計算行為具有良好的并行分布、容錯和抗噪能力。
神經網絡學習算法是一種仿真算法,擁有良好的認識模擬能力和有高度的并行分布式處理能力。但神經網絡模型及其參數設置難以確定,需要長時間的試驗摸索過程。并且,對于最后得到的神經網絡,其反映的知識往往難以讓人理解。為解決這些問題,構造神經網絡集成并從神經網絡或神經網絡集成中抽取規則成為當前研究的熱點。
2.1.5基于遺傳算法的學習
遺傳算法以自然進化和遺傳學為基礎,通過模擬自然界中生物的繁殖與進化過程,使訓練結果逐漸優化。與遺傳過程類似,在學習過程中,通過選擇最好結果并使其組合產生下一代,使“優秀的遺傳因子”逐代積累,最后得到最優的解。遺傳算法解決了神經網絡學習中的一個缺點,它不需要知道原始信息而只需知道學習的目的即可進行,具有很強的并行計算能力和適應能力。此外,遺傳算法采取的隨機搜索方法提高了該學習算法對全局搜索的能力。遺傳算法的缺點主要體現在三個方面:無法確定最終解的全局最優性;無法控制遺傳過程中變異的方向;無法有效地確定進化終止條件。基于這三個缺點,有人提出了遺傳算法與其他學習算法的結合,優點互補已達到更好的效果。
3.結語
機器學習在過去十幾年中取得了飛速的發展,目前已經成為子領域眾多、內涵非常豐富的學科領域。“更多、更好地解決實際問題”成為機器學習發展的驅動力。事實上,過去若干年中出現的很多新的研究方向,例如半監督學習、代價敏感學習等,都起源于實際應用中抽象出來的問題,而機器學習的研究進展,也很快就在眾多應用領域中發揮作用。機器學習正在逐漸成為基礎性、透明化、無處不在的支持技術、服務技術。
參考文獻:
[1]周志華.機器學習與數據挖掘[J].
【關鍵詞】人工神經網絡;教育資源;管理系統
【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009―8097(2009)07―0120―04
教育資源是信息化教學的基礎。隨著教育信息化的深層次推進,互聯網中的信息資源以指數方式增長,這些資源不僅在內容上多種多樣,在表現形式上更是豐富多彩。它對教育領域的沖擊與滲透使得網絡教育資源的利用受到重視,并隨之出現了新型教學模式,如:基于資源的自主探索式學習和協作學習等。然而海量的網絡教育資源既為教育帶來了強大的服務功能,也為資源的建設與管理帶來了新的挑戰。教育資源具有數據量大、形式多樣、針對性強、教育性強等諸多特點,如何將分散、無序的資源整合起來,使“用戶能方便、高效地將其利用于自己的學習和工作之中,并在大范圍內實現共享是網絡教育資源建設者必須慎重面對的問題。”[1]
一 教育資源管理面臨的問題
隨著信息資源飛速增長,對教育資源管理的要求也更加苛刻。而網絡環境的復雜給教育資源的管理帶來許多不確定性。
1 教育資源管理系統在網絡過載,受到攻擊的情況下很容易崩潰。系統一旦崩潰,所有辛辛苦苦積累起來的資料化為烏有,資源的開發利用和共享無從談起。目前“教育資源管理系統在輸入錯誤、磁盤故障、網絡過載或有意攻擊情況下,很容易死機和崩潰。”[2]而魯棒性(robustness)的大小是在異常和危險情況下系統生存的關鍵,代表了系統健壯與否。簡而言之,系統的魯棒性有待加強。
2 教育資源管理系統需要連續不斷地吸收新的教育資源。向用戶提供可靠的信息輸出。但是在發生故障時,教育資源管理系統容易停止工作,給用戶帶來較大的損失。而容錯性(Fault Tolerance)是指在故障存在的情況下管理系統不失效,仍然能夠正常工作的特性。很明顯,管理系統的容錯性較差,猶如一個經常斷電的供電站,給廣大用戶帶來不必要的煩惱與損失。
3 教育資源的擴張速度極快,對海量教育資源的分類顯得越來越困難。原先的人為分類跟不上信息傳遞的頻率,導致很難在較短的時間內找到用戶迫切需要的資料,浪費用戶的時間,也給教育資源的進一步推廣使用帶來障礙。
二 人工神經網絡的特點
人工智能(Artificial Intelligence)是探討人類智能的基本機理,研究如何利用各種自動機來模擬人的某些思維過程和智能行為,從而構造智能人工制品的科學。
人類對人工智能的研究可以分成兩種方式,對應著兩種不同的技術:基于心理角度模擬的傳統人工智能技術和基于生理角度模擬的人工神經網絡技術。從人腦的生理結構來觀察,人腦的每個神經元大約有103~4個樹突及相應的突觸,一個人的大腦總計約形成1014~15個突觸。用神經網絡的術語來說,即是人腦具有1014~15個互相連接的存儲潛力。雖然每個神經元的運算功能十分簡單,且信號傳輸速率也較低(大約100次/秒),但由于各神經元之間的極度并行互連功能,最終使得一個普通人的大腦在約1秒內就能完成現行計算機至少需要數10億次處理步驟才能完成的任務。根據人腦的生理特點,人工神經網絡(Artificial Neural Networks,ANN)是由大量并行分布的單元廣泛互連而成,通過各組成部分非同步化的變換,實現信息的整體處理任務,它的這一結構特點決定著人工神經網絡具有高速信息處理的能力。它實質上是一種模仿動物神經網絡行為特征,進行分布式并行信息處理的算法數學模型。其“工作原理是通過調整內部大量節點之間相互連接的關系,從而達到處理信息的目的。” [3]所以它具有自學習和自適應的能力,可以通過預先提供的一批相互對應的輸入――輸出數據,分析掌握兩者之間潛在的規律,最終根據這些規律,用新的輸入數據來推算輸出結果。
人工神經網絡中神經元處理單元可表示不同的對象,例如特征、字母、概念,或者一些有意義的抽象模式。網絡中處理單元的類型分為三類:輸入單元、輸出單元和隱單元。輸入單元接受外部世界的信號與數據;輸出單元實現系統處理結果的輸出;隱單元是處在輸入和輸出單元之間,不能由系統外部觀察的單元。神經元間的連接權值反映了單元間的連接強度,“信息的表示和處理體現在網絡處理單元的連接關系中。”[4]人工神經網絡的本質是通過網絡的變換和動力學行為得到一種并行分布式的信息處理功能,并在不同程度和層次上模仿人腦神經系統的信息處理功能。正因為這個重要特征,“人工神經網絡采用了與傳統人工智能技術完全不同的機理,克服了傳統的基于邏輯符號的人工智能在處理直覺、非結構化信息方面的缺陷,具有自適應、自組織和實時學習的特點。”[5]它與專家系統的最大區別是,專家系統屬于人類智能的功能模擬,而人工神經網絡則偏重走結構模擬的路子。與其它智能系統相比,人工神經網絡具有以下特點:
1 學習能力:學習能力是神經網絡具有智能的重要表現,即通過訓練可抽象出訓練樣本的主要特征,表現出強大的自適應能力。例如實現圖像識別時,只有先把許多不同的圖像樣板和對應的應識別的結果輸入人工神經網絡,網絡就會通過自學習功能,慢慢學會識別類似的圖像。
2 分布式結構:人工神經網絡力圖“體現大腦的分布式并行計算和非線性等特征,依此而建構的網絡是一種具有大量連接的并行分布式處理器。”[6]具有通過學習獲取知識并解決問題的能力,且知識是分布存儲在與大腦神經元突觸相類似的連接的權重中。在傳統的串行體系計算機中信息分布在獨立的存儲單元中,而在神經網絡中,信息則分散在神經元的連接上。神經網絡的信息分布特性,使之具有強大的容錯能力和記憶聯想能力。信息的分布存儲提供容錯功能。由于信息被分布存放在幾乎整個網絡中,所以,“當其中的某一個點或者某幾個點被破壞時,信息仍然可以被存取。系統在受到局部損傷時還可以正常工作。”[5]
3 并行處理:神經網絡主要是對人腦的結構模擬。各種神經元在處理信息時是獨立完成的,不同神經元之間具有并行性,這種并行處理使得信息處理速度大大加快。信息處理方式由原來馮•諾依曼設計的串行處理變為對信息并行處理。
三 人工神經網絡應用于教育技術資源的管理之中
將網絡布線由原來的星型布線轉向神經網絡布線方式。應用神經網絡軟件,網絡采用分布式結構,信息采用統一并行處理的方式處理,從而加強了網絡的魯棒性、容錯性。同時發揮神經網絡的自學習能力,對待不同的信息資源進行模式分類。神經網絡模型考慮采用目前比較成熟的誤差反向傳播網(BP神經網絡)。教育資源分類考慮設計關鍵詞進行訓練,同時設立樣本訓練方法,用BP算法對該網絡進行訓練。訓練結束之后,神經網絡就可以作為教育資源分類器來進行使用。
BP(Back propagation反向傳播)網絡又稱誤差信號反饋網絡,是神經網絡中使用最廣泛的一類。它是一種有教師的學習網絡,能夠實現從N維到M維的非線性映射,采用梯度下降法實現快速收斂。BP神經網絡采用的是并行網格結構,包括輸入層、隱含層和輸出層,經作用函數后,再把隱節點的輸出信號傳遞到輸出節點,最后給出輸出結果。由圖1可見各層次的神經元之間形成全互連連接,各層次內的神經元之間沒有連接。
該算法的學習過程由信息的前向傳播和誤差的反向傳播組成。在前向傳播的過程中,輸入信息從輸入層經隱含層逐層處理,并傳向輸出層。第一層神經元的狀態只影響下一層神經元的狀態。如果在輸出層得不到期望的輸出結果,則轉入反向傳播,將誤差信號(目標值與網絡輸出之差)沿原來的連接通道返回,通過修改各層神經元權值,使得誤差均方最小。神經網絡理論已經證明“BP網絡具有強大的非線性映射能力和泛化功能,任一連續函數或映射均可采用三層網絡加以實現。”[3]
其BP神經網絡模型設計方案如下:輸入層、隱含層、輸出層。輸入層與外界的信息來源渠道緊密相連,稱之為接受信息的服務器。隱含層包含若干個存儲器,代表若干個知識單元。存儲器需要具備輸入輸出渠道,具備自學習能力,可以接受外界信息,也可以傳送信息。輸出層由傳送信息的服務器組成。輸出層接受到隱含層傳來的信息之后,根據用戶要求傳送相關信息。層間聯接根據模型設計方案來鋪設。神經網絡中的每一個節點,無論其在輸入層、隱含層、輸出層上,每臺計算機上必須有相應的神經元器件,以便網絡進行自學與聯想記憶。BP神經網絡管理系統的硬件實現。是將協處理器插入標準計算機中,通過運行神經網絡軟件包,以實現神經網絡的硬件功能,可以使神經網絡在任何計算機硬件和軟件環境中得到所需要的教育資源處理能力。其設計的模型具有如下特點:
1 教育資源并行分布方式處理:在神經網絡中教育資源是分布儲存和并行處理的,即神經網絡把教育資源分布地存儲在神經元之間的連接強度上,而且對教育資源的處理是由網絡中神經元集體完成的。在BP神經網絡中,教育資源的存儲表現為神經元之間分布式的物理聯系,它分散地表示和存儲于整個網絡內的各神經元及其連線上。每個神經元及其連線只表示一部分教育資源,而不是一個完整具體概念。只有通過各神經元的分布式綜合效果才能表達出特定的概念和知識。由于人工神經網絡中神經元個數眾多以及整個網絡存儲容量的巨大,使得它具有很強的不確定性處理能力。即使輸入教育資源不完全、不準確或模糊不清,神經網絡仍然能夠聯想思維持在于記憶中事物的完整圖像。只要輸入的模式接近于訓練樣本,系統就能給出正確的推理結論。
2 魯棒性與容錯性比較強:人工神經網絡的結構特點和其信息存儲的分布式特點,使得它相對于其它的判斷識別系統如專家系統等,具有另一個顯著的優點健壯性。當一個人的大腦因意外事故受輕微損傷之后,并不會失去原有事物的全部記憶。人工神經網絡不會因為個別神經元的損失(網絡過載、停電、突發故障)而失去對原有模式的記憶(管理功能)。另外“即使是突發事件,暫時使網絡的硬件實現還是軟件實現中的某個或某些神經元失效,整個網絡仍然能繼續工作。”[7]BP神經網絡是一種非線性的處理系統。只有當神經元對所有的輸入信號的綜合處理結果超過某一閾值后才輸出一個信號。因此神經網絡是一種具有高度非線性的超大規模連續時間動力學系統,可以實現對教育資源不間斷、長時間的持續管理。它突破了傳統管理系統的局限,標志著教育資源管理能力的較大提升。因而神經網絡具有極強的魯棒性與容錯性,有聯想記憶抽象概括和自適應能力。
3 具有自學習和自適應能力:神經網絡抽象概括和自適應能力稱之為自學習能力,自學習是神經網絡中最重要的特征。通過學習,網絡能夠獲得教育資源的分類知識,適應環境。在訓練時,能從輸入、輸出的數據中提取出規律性的分類知識,記憶于網絡的權值中。并具有泛化能力,即將這組權值應用于一般教育資源分類的能力。另外,BP神經網絡的分類能力學習也可以在線進行。
以教育學院教育技術學資源管理為例,輸入層由兩臺高性能的服務器組成,中間設七個知識單元,輸出由兩臺輸出服務器組成。隱層的七個神經元分別為計算機軟件資源室、課堂教學資源室、“影視創作資源室、計算機教育應用資源室、網絡技術資源室、傳統教學資源室、傳統媒體使用資源室。”[8]模型圖如圖2所示:
教育技術學資源管理系統一種可編程的動力系統,其存貯、加工和提取教育資源均是可編程的。輸入層負責對教育技術學的相關教育資源進行篩選比較,然后根據學習后的分類能力對資源予以分類,將所有的教育技術資源分布式存儲在隱層的各神經元中,需要處理時根據用戶需要,從各個神經元中取出信息并行處理,輸出到輸出服務器中,提供給用戶。用戶可以將用戶要求直接給輸出處理平臺,傳遞給輸出層后,由輸出層將用戶要求反饋給中間隱層。也可以將要求送給輸入處理平臺,傳遞給輸入層,進行篩選之后將信息傳送給中間隱層。即使系統突然面臨網絡過載問題,由于存儲是分布式的,可以很容易地將信息資源分配下去。即使突然停電,由于相關資源已經存儲完畢,損失微乎其微。系統的魯棒性大大加強。同時如果系統發生突然故障,由于輸入渠道有兩條,所以可以很輕松地用另一個服務器處理。輸出處理時也是如此。因此系統的容錯性也得到提高。至于模式分類,則需要較長時間的訓練和大量的樣本。一旦BP神經網絡模型訓練完畢,日后教育技術學資源分類就顯得十分輕松。只需將關鍵詞輸入準確,便可以進入相應的知識單元存儲起來。處理信息時,根據用戶需要,有不少不同類別的資源需要統籌規劃、聯合利用,才能得到用戶需要的結果。這兒就可以充分發揮神經網絡并行處理的特點,有條不紊地對信息加以處理。其總體示意圖如圖3所示:
四 結語
教育信息化的核心問題是教育資源的應用和管理。神經網絡式的教育資源管理系統把教育資源存儲、教育資源管理、教育資源分類、教育資源動態升級四大特色功能進行整合,全面突破了“當前基礎教育信息化過程中的應用‘瓶頸’。” [9]其最大的特點就是突出了教育資源的管理功能,通過以一個統一管理平臺為核心的方式,對各類教育資源進行優化、整合,改善了以往教育資源管理從單一功能角度進行設計,各功能之間不能相互結合,造成資源管理困難和資源互不兼容的問題,實現了教育資源的價值最大化。值得注意的是,由于管理系統采用神經網絡的結構特點進行設計,其魯棒性、容錯性和模式分類能力較強,較之傳統教育資源管理方式比較起來,不僅提取和輸入變得十分簡單,而且對大量資源的分類式識別也大大加快,提高了管理效率。分布式存儲提高了教育資源的存儲容量,而“并行式處理又加大了教育資源的處理速度,同時系統在應付突發事件和網絡攻擊方面,應變能力大大增強,”[10]其可靠性與可用性也有突破性的提高。同時,在教育資源管理過程中,系統能抓住教育資源應用與管理過程中的關鍵問題,關注用戶的反饋,即時更新教育資源,加強了教育資源的建設,為教育信息化的持續發展提供了有力的保障。
參考文獻
[1] 余勝泉,朱凌云.教育資源建設技術規范體系結構與應用模式[J].中國電化教育,2006,(3):58-59.
[2] 穆肅.校本學科教學資源庫的設計和實現[J].中國電化教育,2004,(1):56-61.
[3] 周志華著.神經網絡及其應用(第1版)[M].北京:清華大學出版社,2004.
[4] 張廣瑩,徐麗娜,鄧正隆.“神經網絡控制”CAI課件研制中的幾個問題[J].現代教育技術,1997,(2):32-33.
[5] 韓立群著.人工神經網絡理論設計及應用(第1版)[M].北京:化學工業出版社,2002.
[6] 陶劍文.一種分布式智能推薦系統的設計[J].計算機工程,2007,(15):207-208.
[7] 王國旗,張辛亥,肖.采用前向多層神經網絡預測煤的自然發火期[J].湖南科技大學學報(自科版),2008,(2):20-22.
[8] 茹洪麗.教育技術學課程設置問題探略[J].電化教育研究,2005,(12):38-41.
人工智能能取代人類傳統的會計工作嗎?會計業內不少人以為,人工智能只能輔助會計人員進行會計核算及財務決策,不能獨立進行復雜的財務判斷和決策工作,認為其至少無法取代現在高端的決策工作。但若認真了解人工智能的發展趨勢,就會知道其所能做的會計工作遠比大家想象的要多。
2017年2月4日,世界圍棋排名第二的人工智能機器人AlphaGo,被剔出排名。原因是Alpha Go再以“Master”之名,橫掃當前世界最頂級高手,創造60勝0負的佳績,圍棋上人類已經繳械投降了。更重要的是AlphaGo的“智能”模仿了人類大腦的神經網絡,具有高效的“深度學習”能力,已經具備自我學習和預測未知的能力。下面本文就簡介一下其工作原理,揭開這種“智能”的神秘面紗。
二、現代人工智能原理及應用
人工智能(Artificial Intelligence,簡稱AI)能以人類智能相似的方式對環境做出反應,包括對人類自然語言的識別與意義的理解,可以對圖像和影像中的物體精確識別等,還可以模擬人的學習、推理、思考、規劃、預測等思維過程和智能行為。
1.AI原理簡介
(1)大腦生物神經網絡工作原理
腦神經科學家通過研究發現,人腦大約有1011個神經元(神經細胞),并分為多個層。每個神經元上有103~105個神經突觸。每個神經元通過突觸與其它神經元進行連接和信息傳遞,構成一個強大、復雜的神經網絡。當突觸接收到的信號強度超過某個閾值,神經元將由靜止狀態變激活(通電),再通過突觸以電脈沖向上層神經元發送激活信號。層越多、連接越復雜,信息的抽象處理能力和智力越高。
大腦對于事物和概念的記憶,并非存儲在某個固定位置,而是像全息照片一樣,分布式地存儲在一個復雜的神經網絡里。一個概念可以用多個神經元共同定義表示,一個神經元也可以參與多個概念的表示。例如,“大黃狗”如果分布式地表示就是,一個神經元表示大小,另一個神經元表示顏色,第三個神經元表示抽象的狗。當視覺或聽覺將三個神經元同時激活并與記憶中的數據概念匹配時,就知道是“大黃狗”。人類就是通過大腦特定區域神經元之間的相互激活與協同工作,高效完成各種智力工作的。
(2)AI對信息進行智能化處理的方式
一種是傳統 “專家系統”人工智能,此方法基于邏輯符號,大量使用“如果-就”(If-Then)判斷規則,進行線性邏輯推理,這種人工智能方式適合處理線性、結構化數據,但不適合處理直覺、模糊判斷及非結構化數據。
另一種人工智能系統,是模仿人的生物神經網絡工作原理,分布式表征,模仿人類大腦處理信息。這種AI系統適合處理圖像、影像、聲音等分布式非結構化數據,,特別是海量的大數據,一般都是分布式數據結構。例如,視頻采集的動態數據中,判斷一個飛行的物體是麻雀還是老鷹,或者飛機,對這樣海量數據的處理,傳統“專家系統”AI就無能為力了。而人工神經網絡智能系統,就可以高效處理這些非結構化分布式數據信息。更為重要的是人工神經網絡AI,可以像人一樣自我學習,非監督學習,甚至預測學習。
目前的機器人工智能系統往往是把這兩種AI系統結合起來,互相取長補短。
2.AI應用現狀
為了讓讀者更清楚了解AI對會計工作的沖擊,了解哪些工作將被機器人取代,下面介紹幾個AI典型應用,進一步了解其??用領域。
(1)“深度學習”在棋類中的應用
在棋類博弈中,圍棋的變化數最多,達到10170。與過去戰勝國際象棋冠軍的“深藍”所不同,AlphaGo若想用窮舉法“暴力”計算出每步棋的最佳落子來與人類對弈,是根本不可能的。其采用的是人工神經網絡的“深度學習”,自己和自己對弈上千萬盤棋,用非監督學習的方法提高對弈水平。在海量的可能中,每步棋并非找最佳落子,而是找出勝率最高的走法。AlphaGo 1.0主要通過訓練學習人類棋譜而戰勝韓國選手李世石。而橫掃圍棋界的AlphaGo2.0(Master)已經拋棄人類的棋譜,創造出自己的走法。AI已經具有通過自我學習進行獨立判斷的能力。
(2)在圖形和語音識別方面應用
Google旗下的DeepMind通過強化學習、無監督學習,讓AI僅使用屏幕上的像素和游戲分數作為輸入,從頭學玩游戲,最終在其中29種游戲中達到或超過了人類水平,可見AI能通過自我學習,對未知領域進行預測、決策。
2015年的ImageNet競賽上,一個深度學習系統以96%的圖像識別準確率,第一次超過了人類。目前百度公司已經能將人臉識別準確率提高到99.77%。百度基于深度學習研發的語音系統識別準確率可達到97%,接近人類水平。現在的語音翻譯也達到接近人類翻譯的水平。高效精確的圖形、影像、語音識別技術,將使未來AI機器人具有強大的與人交流信息的能力。
(3)手寫數字和文字識別方面應用
早在上世紀90年代,貝爾實驗室開發出來的AI系統,識別手寫的數字和文字就能達到商用級識別精度,被企業用來識別信封上的手寫郵政編碼及支票上面的手寫數字。現在的識別準確度完全可以與人類媲美。AI能識別出手寫的、不規范的會計原始單據,甚至可以通過大數據樣本的“深度學習”,對發生的經濟業務、會計事項做出準確判斷歸類。
此外,AI還能代替醫生診斷病人,做記者寫報道,甚至寫小說、繪畫、作詩、作曲等。自動寫出會計報告更不是問題。
三、AI對會計工作的影響及對會計人員的沖擊
通過以上對AI應用的分析可知,其遠不止輔助會計人員做賬、分析、決策功能,更不是傳統會計電算化的升級版。大有對傳統會計人員的工作取而代之的趨勢。會計工作具有程序化、規范化、原則性強的特點,而這些正是計算機所擅長。下面就從會計工作和會計人員這兩方面分析AI的影響。
1.AI對傳統會計工作的影響
《經濟學人》曾于調查后在2014年列出了未來最有可能被機器取代的傳統崗位,會計行業就在其列。去年3月10日,四大國際會計師事務所之一德勤宣布與Kira Systems聯手,將AI引入會計、稅務、審計等工作當中,取代人工閱讀包括調查、合并、合同管理以及租賃協議等商業文件。這一舉措更引起了會計業界的震動。
Kira Systems公司最近的創新產品正將機器學習提升至新高度,即機器可以通過從復雜文件中提取信息來擴展人類的專業知識,能通過學習范例來準確地識別信息,而不僅僅是識別預定程序的條款。由于AI機器人未來可以綜合處理圖像、視頻、語音、文字等數據,并通過有關財務方面的大數據樣本的學習,獲得財務分析、預測和決策能力,傳統的記賬、算賬、報賬的業務流程,有可能因為AI而改變,由于AI高速的數據處理能力,會計報表不一定每個月出一次,完全可以改變會計工作的內容和流程,做到動態實時出報表,打破會計和統計等傳統管理工作的界限,將會計工作與人事、生產、銷售等管理工作融為一體。因此,AI對會計行業的沖擊是全方位,多層次的。
2.AI對會計從業人員的要求
這個超前的預言,會不會有些夸張?
劉慶峰正以激情昂揚的斗志,帶領科大訊飛接近這個現實。
事實或許如此。人工智能誕生60年以來,從未像今天這樣炙手可熱。細數很多領域,都能發現人工智能所能觸及并產生顛覆性影響的例子。其中,廣為人們熱議的,是2016年3月谷歌公司的AlphaGo(阿爾法圍棋)戰勝韓國名將李世石的驚人壯舉,并且未來還有“好戲”。
而據劉慶峰的預測,隨著萬物互聯時代到來,以語音為主、鍵盤觸摸為輔的人機交互正逐漸成為剛需,人工智能產業迎來第三次發展浪潮。
今天對人工智能未來的預測是不是過于樂觀?它是一個真正的產業大潮還是概念的泡沫?當人工智能產業爆發,它會怎樣改變我們所生存的現實世界?我們是興奮,還是如霍金所警示的“恐慌”?
黑科技,興奮還是恐慌?
2016年11月23日,北京國家會議中心的一場數千人會上,演講者在臺上聲情并茂地演說著,兩側的大屏幕上一行行字幕實時跳躍顯現,速度和準確率遠超人工速記。據《中外管理》了解,這種在業界率先實現演講和會議場景下的語音轉寫技術突破的智能語音系統,現場實測識別率達95%。
它,叫“訊飛聽見”。其功能是實時將語音轉寫成文字。更加“不可思議”的是,它在實時中文語音轉寫的基礎上,還融合了全新的多語種翻譯技術,實時將中文演講翻譯成英語、日語、韓語等同步展示在大屏幕上,引發現場強烈反響。
看起來,這項基于人工智能技術的實時機器多語種翻譯技術,似乎可以直接顛覆速記和翻譯的工作了!而事實上,此“神器”已實際應用于在浙江烏鎮舉辦的第三屆世界互聯網大會,令使用者贊不絕口。 “讓機器能會說,首先要給機器裝上一個人工的嘴巴。”科大訊飛董事長劉慶峰以一個形象的比喻,來印證科大訊飛在“黑科技”上“耍”出的成果。“訊飛聽見”僅僅是其中之一。此次,科大訊飛一口氣的萬物互聯輸入法、智能家居、智能車機、智能服務機器人、智慧教育、個性化語音合成等創新產品,均是基于“訊飛超腦”人工智能最新技術的產物。
并非嘩眾取寵。這些搶眼的黑科技產品,事實上已經讓這家以智能語音技術見長的公司執著地走過了17年。早在1999年成立時,科大訊飛便堅信無論人工智能如何發展,交互和后臺的理解和學習都是剛需,通過人機耦合以及迭代學習進步,人工智能會逐步替代人類簡單重復的勞動。
先見之明可以引領一家公司的長遠戰略,但沒有堅忍的投入也無法結出果實。對未來的深入洞察,使科大訊飛在創新的道路上不斷突破,而連續多年的研發投入占銷售收入的25%,更是少有公司能夠比擬的。在人工智能的前沿技術,如語音識別、合成以及機器翻譯等領域,科大訊飛在國際比賽上包攬很多項目的冠軍。例如語音合成技術,能夠做到將人的音色和語言要素分離出來,從而實現這些要素的重新組合。
成績背后,是科大訊飛構建的擁有1000余研發人員的核心研發平臺,以及外部1500人的聯合實驗室,基于人工智能和大數據技術的長期研發。
用速度戰勝自己。你可以說是一種“顛覆”,但也何嘗不是進步?
是什么驅動一家公司始終保持著專業與專注的文化特質,在一個垂直領域深耕十幾年?劉慶峰給出的答案是:人工智能的發展不會是一蹴而就的,創業者要有堅守的心態、毅力和恒心。
“人工智能+”,顛覆還是改變?
不僅讓機器能聽會說,還要讓它能理解會思考。實現所謂的“人機交互”。
完成這個“神奇”的使命,光靠激情和暢想肯定不行,用劉慶峰的話說,“用一種爬山的企業精神,坐十年冷板凳,然后厚積薄發。”
資料顯示:人工智能概念在1956年達特莫斯會上被專家提出以后,于1970年掀起第一次浪潮,那時已經通過第一代的人工智能神經網絡算法證明了《數學原理》一書的絕大部分數學原理。而第二次浪潮發生在1984年,當時霍普菲爾德網絡被推出來,讓人工智能的神經網絡具備了歷史記憶的功能。
“但是前兩次的大潮,后來都破滅了,為什么?”劉慶峰描述著,是因為神經網絡本身算法的局限性,同時也受到當時整個運算能力的一些限制。那么今天,以深度神經網絡為基礎,基于大數據、云計算運算平臺,再加上移動互聯網源源不斷地將各種訓練數據收集到后臺,以目前的時間節點看,人工智能的第三次大潮已經切實到來了。”令他興奮的是,科大訊飛17年的堅持,正在驗證一個“算法”與圍繞它的科技和產業界持續的創新實驗。
“人工智能+”,或許可以改變更多我們頭腦中的認知――盡管現在還沒有清晰地為我們感知到。
但是科大訊飛的研究表明,這是我們面臨的時代趨勢。人工智能進入產業領域并釋放它的智慧,或許更值得期待。
一個頗為有趣的例證,便是2015年科大訊飛在教育領域推出的機器閱卷技術。這一技術在2016年進一步迭代――在以往語文、英語作文學生手寫文字精準識別、可靠評分基礎上,應用“訊飛超腦”最新成果,又重點突破了中英文作文綜合反饋和逐句精批并在多校持續打磨形成新型作文教學模式,將原來最難開展教學的作文課從月頻提高到周頻授課和測練。
如此“智慧”的個性化教學產品,科大訊飛目前已經推廣至全國220多個地市、超過10000所學校,1500萬師生受惠于此。并且在數、理、化教學的應用同樣亦不遜色。
關鍵詞:電氣工程;自動化;智能技術;應用
近些年來,人工智能技術呈現快速進步的趨勢,隨著該項技術的廣泛應用,其巨大的發展潛力也逐漸被人所認同,就電氣工程自動化而言,智能化技術因其具有的行為、感知、思維能力,能夠很好的提高電氣工程自動化的建設水平,加快電氣生產力的進步,促進整個電器工程朝著自動控制、高效運行、智能操作、系統穩定等方面發展,引領生產技術進行進一步的革新,為電氣行業蓬勃發展奠定堅實的基礎。
一、人工智能運用的理論
在上世紀50年代第一次有了人工智能這一概念,隨著時間的推移,人工智能的發展也十分的迅速,時至今日,智能化技術已經形成了以計算機為核心,包括各種學科在內,具有極強綜合性的一門學科,通過制作模擬人的智能行為的機器,到達研究智能本質的目的。近些年來,智能化技術有了長足的進步,并且隨著信息技術的高速發展,已經能夠在一定程度上通過計算機模仿人的大腦,例如分析、收集、回饋、處理以及交換信息,正是由于這種進步,才讓智能技術能夠更加廣泛的應用在各個領域當中。
二、利用智能化技術進行控制的優勢
對于不同人工智能的控制,需運用不同方式進行探討,由于部分人工智能的控制器,例如神經、模糊、模糊神經以及遺傳算法均屬于類非線形函數的近似器;采用此分類有利于了解總體,以及促進對人工智能控制策略綜合性的開發,以上人工智能的函數近似器具備常規函數的估計器不具有的優點。首先,在多數情況下,精確了解控制對象動態方程是相對比較復雜的,所以控制器設計實際的控制對象模型,通常會出現許多不確定因素,例如參數變化與非線性時等,往往無法掌握新的信息。但人工智能的控制器設計,可不需參照控制對象模型。按照魯棒性、響應時間與下降的時間不一樣,人工智能的控制器可經過適當調整以提升自身性能。同古典的控制器比較,人工智能的控制器更具備易調節的特點。盡管缺少專家現場的指引,人工智能的控制器也可以采取響應數據進行設計。
三、電氣工程自動化中智能化技術的運用
隨著科技的高速發展,越來越多的新工藝、新技術被應用在各個領域當中,智能化技術也因此有了長足的進步,其應用范圍也更加寬廣,就電氣工程自動化而言,智能化技術的應用能夠優化電氣的設計結構,并且做到時刻監控和診斷設備故障,做到智能控制,進而提高電氣工程的建設水平。具體有以下幾個方面:
1.電氣的優化設計
在整個電氣工程自動化領域當中,其產品的優化設計與其他相比還是較為復雜的,現在進行電氣產品的優化設計主要有兩個方面可以借鑒,一是日益豐富和完善的理論體系,二是過往設計經驗,而傳統的優化設計對設計經驗過于依賴,往往采用進行大量數據實驗的方式進行修改和優化,這樣的做法不僅效率低下,還會浪費大量的資源,并且優化過后的產品也難以讓人滿意。但是,信息技術和智能化技術的發展,很好的解決了這一問題,通過計算機的輔助模擬,電氣工程產品的優化設計正在一改往日的諸多問題,朝著智能、高效的方向不斷前進著。
現在主要利用遺傳算法和專家系統這兩種方法實現電氣優化設計中智能技術的應用,通過智能技術實現優化設計的模擬,替代相關工作人員進行數據處理,最終使得優化方案可靠、有效。
2.故障的監控和診斷
電氣工程由于其自身的特點,使用的工藝和技術復雜、繁多,傳統的診斷和監控措施不僅效率低下,檢測故障的準確率也難以讓人滿意,這就需要充分利用智能化技術的優勢,采用神經網絡、模糊邏輯以及專家系統等模式,大幅度的提高故障監控和診斷的效率,例如,運用人工智能的技術,對電動機與發電機進行故障診斷的時候,結合神經網絡與模糊理論,不但保留故障診斷的模糊性,更結合神經網絡的學習能力強優勢,共同對電機故障進行診斷,極大提升了故障的診斷準確率。
3.實現智能控制
實現智能控制不僅是電氣行業發展的必然要求,也是各個領域未來的發展方向,現階段電氣工程自動化已經實現了部分智能控制,正朝著提高智能控制覆蓋率的方向不斷前進著。目前實現智能控制的方式主要有模糊的控制、專家系統的控制以及神經網絡的控制,其主要的職能就是做到設備故障的及時記錄、分析故障原因、各項數據收集和保存、通過監控反映設備的實時運行狀況、利用計算機進行系統的控制等等。
4.發展趨勢
筆者認為未來智能化技術的發展趨勢應該朝著集成化、網絡化等方向發展,通過高度集成化,將原本體積較大、運算速度較慢、運行響應不良的進行進行繼承,提高各項性能指標,同時集成化不僅能夠提高效率,也能在很大程度節約成產成本,同時能讓系統的可靠性有顯著的提高。而網絡化是未來科技發展的必然要求,隨著信息技術的發展,人們已經深刻的認識到網絡和計算機為我們生活、工作帶來的改變,實現智能技術的網絡化能夠通過計算機進行電氣系統的遠程操控,模擬相應的操作進行無人管理,利用網絡在任意機床實現對其他機床的控制, 從而節約大量的人力資源。
四、結束語
隨著科技的發展,人工智能技術也有了十分巨大的進步,在各個領域中的應用也有了可喜的成績,不僅能夠節約資源,還能提高生產效率和質量,尤其是對電氣工程自動化而言,能夠優化電氣工程的設計結構,并且做到時刻監控和診斷設備故障,實現電氣系統的智能控制。同時,我們要需要明確智能化技術未來集成化、網絡化的發展方向,努力提高智能化水平,充分發揮智能化技術的作用,促進各行各業的發展和進步。
參考文獻:
[1]馮亮.淺談智能化技術在電氣工程自動化中的應用[J].科技與企業,2013(01)
[2]婭.智能化技術在電氣工程自動化控制中的應用[J].科技致富向導,2012(27):217-217
人工智能的起源和發展
顧名思義,人工智能就是人造的智能,它是一門通過計算過程力圖理解和模仿智能行為的學科。其基本目標就是使機器表現出類似人類的判斷、推理、證明、識別、感知、理解、通信、設計、思考、規劃、學習和問題求解等思維活動,使機器具有類似人類的智能行為,使機器思維能擁有人類的思考方式。
人工智能的思想最早可以追溯到法國哲學家笛卡爾的“有靈魂的機器”。到了20世紀30年代,英國數學家圖靈提出了“自動化理論”,把研究會思維的機器和開發計算機的工作大大向前推進了一步,他也因此被稱為“人工智能之父”。但是,“人工智能”這個概念真正誕生的標志是1956年夏季在美國達特瑪斯大學召開的以“人工智能”為名的學術討論會。隨后的幾十年中,人們從問題求解、邏輯推理、定理證明、自然語言理解、博弈、自動程序設計、專家系統、學習以及機器人學等多個角度展開了研究,并建立了一些具有不同程度人工智能的計算機系統。當然,人工智能的發展也不是一帆風順的,曾一度因為計算機計算能力的限制無法模仿人腦的思考以及與實際需求的差距過大而走入低谷。但是隨著計算機硬件和軟件的發展,計算機的運算能力以指數級增長,加之網絡技術的蓬勃興起使得目前的計算機已經具備了足夠的條件來運行一些要求較高的人工智能軟件。當然,人工智能的快速發展并不意味著它已經能達到人腦的水平,但人工智能的發展潛力還是巨大的。根據人工智能研究的主要目標,以下4個方面引領了人工智能的發展方向:第一,與生物技術、電子技術結合,研究生物電子體;第二,與腦科學、信息處理技術結合,研究人工大腦;第三,與網絡技術、軟件技術結合,研究智能軟件;第四,與通訊技術、控制技術結合,研究家庭機器人。
有血有肉的生物電子體
在我們的印象中,人工智能通常是一個計算機軟件,其實它也可能擁有一副有血有肉的身軀在現世界行走、奔跑甚至飛翔。生物電子體技術就是讓人工智能擁有活動能力的一種全新技術。
生物電子體是生物細胞與電腦微芯片有效協作的共存體,可以實現部分或全部生物的智能。研制電子生物體主要有“植入法”和“提取法”兩種方式:“植入法”就是把模擬生物體的電腦微芯片植入生物體,并與生物體形成協作共存體;“提取法”就是從生物體中提取出細胞組織與模擬生物體的微芯片結合為協作共存體。
研究生物電子體的目的,就是希望制備出一種協作共存體,從而對生物體進行有效控制,使其為人類服務。譬如當年美國“9?11”恐怖襲擊后,美國政府緊急安排了10種機器人進行城市搜索和救援工作,但其中有6種機器人由于體積太大而不能運送到現場開展工作。試想一下,我們如果利用生物電子體有效控制爬行動物的行為,使其為人類服務,這可能比研究救援機器人花費的時間和資源更少一些。
在生物電子體領域,各國已相繼開展了諸多研究。利用相對簡單的“植入法”,日本東京大學率先研究了一種蟑螂控制技術,他們把蟑螂頭上的觸須和翅膀切除,插入電極、微處理器和紅外傳感器,通過遙控信號產生電刺激,使蟑螂能夠沿著特定方向行進。美國紐約州立大學通過向老鼠體內植入微控制器,也成功實現了對老鼠的轉彎、前進、爬樹和跳躍等動作的人工制導。我國在電子生物體的研究上也有突破性進展,南京航空航天大學就研究了一種壁虎的人工控制技術,即把微電極植入壁虎體內,通過電刺激模擬神經控制其運動。而通過“提取法”制得的生物電子體就更復雜些,比較有代表性的是英國科學家推出的一個由老鼠的腦組織控制的機器人,名為“戈登”。在該項研究中,科研人員先從老鼠身上分離出神經細胞,放置在酶溶液中,讓這些神經細胞彼此分離,然后再將這些神經細胞置于營養豐富的培養基中。該培養基與一個擁有60個電極的電子矩陣相連接,這個電子矩陣就是活體腦組織和機器部件的接合面。通過電子矩陣,“戈登”大腦發出電子脈沖,驅動機器人輪子,同時也能接受傳感器基于外部環境刺激發出的脈沖。由于“戈登”的大腦是活的組織,因此必須裝在溫度特定的器具中。除了自身大腦外,“戈登”不受任何人為和電腦的控制。“戈登”具有一定的學習能力,比如撞到墻時,它就會從傳感器得到電子刺激,再次遇到類似情況時,它就會記住。但是,如果沒有外界刺激,“戈登”便會在數月內因大腦萎縮而死亡。盡管如此,“戈登”仍是實現提取活體腦組織和電子部件結合的研究新突破,也是電子生物體的重大突破。
擅長自學的人工大腦
開發人工大腦就是從信息處理切入,結合腦科學研究大腦對信息流的獲取、存儲、聯想(提取)、回憶(反饋)等處理邏輯,以及腦神經細胞的工作原理來為大腦建模的過程。我們都知道,大腦不是計算機,不會亦步亦趨、按部就班地根據輸入產生輸出,大腦是個極其龐大的記憶系統,真正了解人類大腦,構建出大腦的記憶-預測系統模型才能制造真正的智能。人工大腦其實早在20世紀末就出現了,日本京都先進電訊研究所率先研制了一只機器貓,該機器貓的腦部主要采用了人工神經網絡技術,包含約3770萬個人造神經細胞,盡管數量與人腦的1000億個腦細胞相比差之甚遠,但其智能超過了昆蟲,實現了人工大腦開發的第一步。緊接著,比利時便研制出了能讓機器人擁有數百個行為能力的人工大腦。然而,這些人工大腦都是基于傳統的計算機設計和制造思路開發的,與人腦的工作模式有著本質的區別,因此,改變傳統的設計思路,是未來研究人工大腦的必經之路。
目前,走在研究人工大腦技術前沿的是幾大信息技術巨頭,其中IBM和谷歌的研究成果尤為突出。IBM的研究人員研制出了第一代神經突觸計算機芯片,這種芯片可以模擬大腦的認知活動,完全不同于計算機設計與制造的傳統理念。研究人員通過先進算法和硅電路,再現了發生于大腦中神經細胞和突觸之間的現象。未來,IBM將進一步開發認知運算芯片,并將以混合信號、類比數位以及異步、平行、分布式、可重組的特制容錯算法,來復制大腦的運算單元、神經元與突觸之間的活動。
近年來,谷歌將大量資金、人力投入人工大腦研究中,并成功開發出了模擬人腦并具備自我學習功能的“谷歌虛擬大腦”。“谷歌虛擬大腦”是模擬人腦細胞之間的相互交流、影響而設計的,通過模擬人腦中相互連接、相互溝通、相互影響的“神經元”,由1000臺計算機、16000個處理器、10億個內部節點相連接,形成一個“神經網絡”。當有數據被送達這個神經網絡的時候,不同神經元之間的關系就會發生改變,這種關系的變化使得該系統對某些特定數據形成反應機制,從而讓系統具備學習能力,并且能夠在新輸入的數據中找出與學到的概念相對應的部分,以達到識別的效果。這個有著自學功能的虛擬大腦系統在人工智能領域有著劃時代意義,研究人員無需預先輸入某一概念,它就可以自己決定關注數據的哪部分特征,注意哪些模式,從而自動從輸入的大量數據中“領悟”這一概念,這與人腦的學習過程十分相似。
智能軟件不止于圍棋
所謂智能軟件,是指能夠產生人類智能行為的計算機軟件。智能軟件與傳統軟件最重要的區別就是:智能軟件具有現場感應和環境適應的能力,還有表示、獲取、存取和處理知識的能力,同時還能夠采用人工智能的問題求解模式來獲得結果。自從計算機誕生后,軟件的設計開發便一直落后于硬件生產水平的發展,智能軟件更是無從談起。直到20世紀末,作為現實世界高水平的抽象――Agent軟件系統的誕生,才大大加快了智能軟件的開發。很快,基于Agent的實時道路交通導航系統模型、面向Agent的巡航導彈武器控制系統和多Agent敏捷調度系統相繼被開發出來。目前,基于Agent的軟件設計與開發已經成為人工智能學科的重要內容之一,而如何在軟件設計與開發中更好地體現Agent的自治性、交互性、協作性以及可通信性等,又使智能軟件的設計與開發成為了人工智能學科的新挑戰。
如今,對于智能軟件的開發正處于如火如荼的階段。比如,擊敗李世石的“阿爾法圍棋”便是一款智能軟件,這款智能軟件最重要的特征就是“深度學習”。深度學習的主要原理就是用一層神經網絡把大量矩陣數字作為輸入,通過非線性激活方法取權重,再產生另一個數據集合作為輸出。這就意味著“阿爾法圍棋”會在與圍棋高手的較量中不斷提高自己的棋力。“阿爾法圍棋”的另一個重要特征就是它具有兩個不同的神經網絡大腦:一個是“監督學習的策略網絡”,負責觀察棋盤布局試圖找到最佳的下一步,相當于“落子選擇器”;另一個是“價值網絡”,負責評估棋局的整體局面并預測雙方勝負,從而輔助落子選擇器,這個叫“棋局評估器”。在“兩個大腦”的配合下,“阿爾法圍棋”擊敗了圍棋界頂級高手,這絕對是人工智能的大突破。此外,智能軟件還在環保、商務和醫療等領域嶄露頭角。我們知道,現在空氣污染備受關注,西門子中央研究院便開發了基于神經網絡的空氣污染預測軟件。該軟件利用了倫敦市遍布中心城區的約150 座監測站收集的包括濕度、太陽輻射、云層覆蓋和溫度等天氣數據和一氧化碳、二氧化碳和氮氧化物等氣體的排放測量數據,并將這些數據相關聯。同時還將諸如工作日、周末、假期、展會和體育賽事等影響交通和污染物排放的活動編程到預測模型中,最終這款智能軟件能夠每小時預報倫敦市內150 個地點未來 3 天的空氣污染程度,誤差率不超過 10%,并且還可以推斷出導致所預測空氣污染的主要原因。另外,現在還出現了許多商務智能軟件,主要就是通過分析銷售額、客流量、庫存、人員配置等所有和企業運營相關的數據來顯示和預測市場波動、經濟趨勢等,并為決策者提供未來的規劃和方案。例如,美國的某公司開發了一款餐廳績效管理智能軟件,這款軟件可以計算出每個輪班期間的最佳人員編制。總之,智能軟件的開發已經并將繼續影響整個社會的方方面面。
家庭機器人走入百姓家
人工智能的最后一個研究方向就是研發家庭機器人。所謂機器人,就是指裝有傳感器和微處理器,并且擁有潛在的人工智能,能夠在無人操作的情況下完成一些重復動作的設備。在過去的幾十年中,機器人已經被廣泛應用在工業生產和危險環境中,如今,機器人市場已經開始轉向家庭。那種可以和人成為朋友,陪人聊天,也可以幫助人們看家、清潔地板、照顧孩子等做一系列家務活兒的家庭機器人引領了新的時尚。