人工智能算法潛在的安全隱患、認知偏見、法律倫理沖突等往往是現實社會缺陷的反映。只有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智能與人類良性互動的未來。
語音點菜、刷臉買單、無人車送回家……60多年前,當一批年輕的科學家首次提出人工智能的概念時,或許沒想到它帶來的巨大變化;而今,得益于計算能力的提升、大數據的驅動以及深度學習的突破,人工智能正加快“進化”,日益改變著我們的生產、生活。
技術是把雙刃劍。應當看到,人工智能在高歌猛進的同時,對安全、法律倫理等也提出了新挑戰。比如,一些專家擔憂人工智能可能模糊虛擬世界和物理世界的界限,甚至重塑人類的生存環境和認知形態,并由此衍生出一系列棘手的道德倫理難題。知名物理學家霍金生前就認為,人工智能的短期影響由控制它的人決定,而長期影響則取決于人工智能是否完全為人所控制。
從技術發展進程和邏輯看,這些擔憂或許來得早了點。好在我們沒有僅僅停留在爭論上,針對人工智能潛在的風險,科學家和工程師們防患于未然,從產品設計標準、規范約束等方面提出了一系列試圖控制智能機器系統的可行性方案。面對智能算法不可理解、缺乏透明造成的機器偏見,人們正加強評估人工智能使用的數據、算法以及模型,剔除可導致偏見的潛在因素;對于未來強人工智能環境下,具有準人格的機器如何與人協調相處問題,科學家也試圖探索通過算法給智能機器嵌入人類的價值觀和規范,讓它們具有和人類一樣的同情心、責任心、羞恥感等等。我們希望,在對人工智能程序進行監管的同時,讓人工智能的算法遵循“善法”,吸取人類道德規范“善”的一面,從而控制機器的風險。
當然,構建好機器法律倫理體系并不容易。現實中豐富的語言表達,微妙的情感訴求能被機器理解、接受嗎?用量化的指標衡量善、惡等倫理概念可行嗎?還有,誰來決定算法、設定標準?這些都是我們試圖規范人工智能發展需要面臨的難題。但給機器嵌入倫理的困難,并不意味著我們只能無所作為。機器學習輸出的判斷和行為,往往取決于它接受的信息。從這點看,人工智能本身并無對錯,理想的狀態下,當前基于深度學習的人工智能算法應當是中性、客觀、高效的,其潛在的安全隱患、認知偏見、法律倫理沖突等往往是現實社會缺陷的反映,只不過在技術的視野中被放大了。因此,要讓智能機器變得更完美,除了通過技術手段對算法進行審查或引導外,更重要的或許是正視、理解并改善現實社會環境。只有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智能與人類良性互動的未來。
倫理學家說,人工智能的道德水準將是一面鏡子,它反映的是人類文明的道德高度。人類社會不可能十全十美,未來的機器智能時代亦然。我們要繼續不懈努力,去創造更好的智能時代。