人工智能正在成為國際競爭的新焦點,同時也為人類社會帶來了新的發(fā)展機遇。機器學習、自然語言處理、情感計算、虛擬現實等技術的迅猛發(fā)展,不僅為學生獲取更高質量的教育體驗提供了有力支撐,也有助于進一步擴展教師自由發(fā)展的空間。但與此同時,智能導師系統(tǒng)、智能數據挖掘等人工智能技術在教育應用中面臨眾多倫理問題,例如數據泄露、公共安全、惡意競爭等。
人工智能(Artificial Intelligence,簡稱AI)是計算機科學的一部分,包括研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)等方面。教育人工智能倫理則是用以規(guī)范教育人工智能開發(fā)及應用過程中關系、行為的道理及準則。
教育人工智能雖具備強大的數據整合與分析能力,但同時也會引發(fā)一系列新的倫理風險,系統(tǒng)來看,其主要體現在以下四個方面。
其一,信息安全。人工智能助力教育教學的同時,不僅為師生發(fā)展創(chuàng)造機遇,也產生了海量教育數據如個人身份信息、行為軌跡、學習偏好等。若此類數據并未得以有效保護或者被非法使用,則會引發(fā)一系列信息安全問題,例如個人隱私資料被惡意泄露及不正當使用、電子郵件的惡意推送、非法電子監(jiān)控、網絡詐騙、數據侵權等,師生的隱私權利在人工智能透視鏡下將變得十分脆弱。
其二,目標沖突。教育人工智能的目標沖突風險主要由人工智能開發(fā)商、用戶的基本目標不一致所產生的。對私營部門來說,由于商業(yè)利益至上的理念根深蒂固,可能會依托人工智能技術工具過度追逐私利。而且,不少教育人工智能設計者與開發(fā)者缺乏致力于“教育公共服務”的責任意識,欠缺對教育成長的價值關懷。若人工智能開發(fā)商、學校管理團隊未在人工智能的教育應用方面達成目標共識,則師生自身利益難以得到長期的有效保障。
其三,缺乏制度約束。當前,用于約束教育人工智能開發(fā)與應用的制度體系尚未健全,教育用戶的合法權益難以得到有效保障。而且,專業(yè)制度約束體系的缺位、失位及錯位成為導致教育人工智能不道德行為出現的重要因素。若缺乏有效的技術標準與“強制性”法律手段加以規(guī)約,教育人工智能的設計開發(fā)與實踐應用可能會逐漸偏離教育價值與人文立場。應對違反教育人工智能倫理規(guī)范的行為與舉措實施問責與制裁,以便合理規(guī)約人工智能開發(fā)人員、教育用戶等人的行為。
其四,過度資源依賴。當前,機器學習和算法推薦雖然可實現教學資源的個性化推送,但這種看似公平合理的人工智能應用,隱含著不為人知的算法歧視與技術偏向,可能導致學生所獲取的教學資源高度同質化,學生逐漸形成資源依賴,不愿跳脫僵化思維,進而影響了學生視野的開闊及創(chuàng)新發(fā)展。而且,教師也可能為節(jié)省自身時間及工作成本,過度依賴人工智能推送的教學資源,喪失自身對于教育教學的獨特理解及思考。
理清相關倫理風險的消解路徑,有利于促使教育能夠合乎道德地利用人工智能機遇,并實現公平和道德的教育決策。
第一,注重智能時代師生信息素養(yǎng)培育。首先,需注重師生信息分辨力培育。學校應引導師生對于信息資源獲取及篩選、信息倫理風險等問題的理解與思考,增強師生信息分辨能力。其次,關注師生信息反饋力培育。學校應引導師生合理反饋人工智能的信息安全、倫理、舒適感問題,并構建暢通的信息反饋渠道,以便持續(xù)改善人工智能的教育應用成效。
第二,完善教育人工智能算法審查及決議機制。首先,應注重構建人工智能算法的審查機制。人工智能算法的運行偏差有可能持續(xù)存在,甚至會被放大。應制定有關人工智能算法培訓和測試的基本規(guī)范與安全協議,對人工智能算法模型的前提假設進行教育本質層面的剖析,尤其應審查教育人工智能算法系統(tǒng)是否包含算法歧視與濫用問題,以便能最大限度保障用戶數據及信息的精確性、隱私安全以及倫理規(guī)范。其次,需明確人工智能教育應用方案的決議機制。政府、學校、企業(yè)等均需秉承集思廣益的決策原則,鼓勵不同意見的提出與開放討論,思考通過某種形式的投票與評價來決定教育人工智能應用的最優(yōu)決定,致力于實現教育公共利益訴求的合理滿足。
第三,加強人工智能及數據的法規(guī)監(jiān)管。當前教育人工智能發(fā)展暴露出眾多技術及數據失范問題,因此,要完善智能技術及教育數據風險問責機制,實現智能技術及數據的規(guī)范監(jiān)管。首先,可嘗試制定及頒布具有法律約束力的教育人工智能法規(guī),規(guī)范技術開發(fā)及應用的倫理責任,非法開發(fā)、使用及銷售人工智能的行為將面臨法律后果及責任。其次,注重教育人工智能應用過程中的數據監(jiān)管,構建專業(yè)的數據隱私監(jiān)管組織或機構。隱私監(jiān)管組織或機構應在某項人工智能技術推廣應用之前,評估該技術的數據安全情況,避免非法分享和使用數據。
第四,加強教育人工智能倫理風險排查與評估。實現有道德的教育人工智能,不可僅僅依靠技術改進,還應采用“系統(tǒng)化思想”審視與排查教育人工智能的倫理風險,這對于最大化保障教育公共利益是至關重要的。教育人工智能倫理風險的存在不僅涉及開發(fā)階段,也涉及生產和分銷階段。除了確保教育人工智能設計的安全性外,還應仔細評估智能算法倫理風險、教育數據倫理風險等的危害等級,以便及時制定教育人工智能倫理風險化解方案。
第五,構建校本化教育人工智能倫理規(guī)范體系。校本化的教育人工智能倫理規(guī)范體系必須高度公正且具有可解釋性,明確規(guī)定人工智能在學校應用的基本要求、審查程序及倫理規(guī)范,并對技術開發(fā)商、學校管理人員等人在教育人工智能倫理監(jiān)管的職責、權利和義務予以合理劃分與限定。學校管理人員可基于學校層面教育人工智能倫理規(guī)范體系,為人工智能在學校教育中的應用設置許可權限。若某項人工智能技術在應用中產生了重大倫理風險,則應根據倫理風險的評估等級對人工智能的應用許可權限進行適當限制。
新聞發(fā)布平臺 |科極網 |環(huán)球周刊網 |新商報網 |中國商界網 |互聯快報網 |萬能百科 |薄荷網 |資訊_時尚網 |連州財經網 |劇情啦 |5元服裝包郵 |中華網河南 |網購省錢平臺 |海淘返利 |太平洋裝修網 |勵普網校 |九十三度白茶網 |商標注冊 |專利申請 |啟哈號 |速挖投訴平臺 |深度財經網 |深圳熱線 |財報網 |財報網 |財報網 |咕嚕財經 |太原熱線 |電路維修 |防水補漏 |水管維修 |墻面翻修 |舊房維修 |參考經濟網 |中原網視臺 |財經產業(yè)網 |全球經濟網 |消費導報網 |外貿網 |重播網 |國際財經網 |星島中文網 |上甲期貨社區(qū) |品牌推廣 |imtoken下載 |imtoken |名律網 |項目大全 |整形資訊 |整形新聞 |美麗網 |佳人網 |稅法網 |法務網 |法律服務 |法律咨詢 |尼達尼布翻譯 |媒體采購網
中國資本網 版權所有
Copyright © 2011-2020 資本網 All Rights Reserved. 聯系網站:55 16 53 8 @qq.com