實(shí)時(shí)更新飛瑞敖最新動(dòng)態(tài),了解飛瑞敖
眾所周知,人工智能的精準(zhǔn)和高效使其在很多領(lǐng)域的應(yīng)用已經(jīng)超出了人類自身所具備的計(jì)算和執(zhí)行能力。隨著技術(shù)逐步朝著自動(dòng)感知、學(xué)習(xí)、決策和行動(dòng)的自主系統(tǒng)方向發(fā)展,機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能關(guān)鍵技術(shù)因缺少透明度和對(duì)結(jié)果的邏輯解釋,導(dǎo)致人工智能應(yīng)用中存在的“黑箱”與數(shù)據(jù)偏見、算法不公等問題逐漸顯現(xiàn)。人工智能需要解釋它是如何做出決策的,這樣才能避免模型和算法的誤用濫用,從而成為推動(dòng)人工智能治理從原則到實(shí)踐有效落地的有力工具和手段。因此,聯(lián)合國教科文組織于2021年發(fā)布了《人工智能倫理建議書》(Recommendation on the Ethics of Artificial Intelligence),明確提出人工智能倫理的十大原則,其中特別強(qiáng)調(diào)了人工智能的“透明性和可解釋性”。
可解釋的人工智能并不是一個(gè)新的概念。它是指算法模塊的輸入、輸出和性能及其系統(tǒng)結(jié)果可以被理解,并提供闡釋說明,幫助用戶充分理解算法的決策機(jī)制、決策過程和決策結(jié)果的公正性。可解釋性是構(gòu)建教育領(lǐng)域?qū)θ斯ぶ悄軠?zhǔn)確認(rèn)知和良好信心的必然要求。教育作為特定環(huán)境下,通過人與人互動(dòng)所形成的認(rèn)知建構(gòu)的過程和結(jié)果,其對(duì)人工智能可解釋性的要求更高,也更迫切。未來智能教育的目標(biāo)是推動(dòng)人工智能技術(shù)與教育教學(xué)的深度融合,并促進(jìn)學(xué)生高階能力的培養(yǎng)。隨著越來越多學(xué)校開始使用人工智能技術(shù),幫助教師了解人工智能技術(shù)的決策過程和決策依據(jù)變得越來越重要。教師不僅需要了解學(xué)習(xí)者學(xué)到了什么,還需要了解他們是如何學(xué)習(xí)的。因此,人工智能技術(shù)的提供者需要解釋它如何決定特定的行動(dòng)方案。可以說,可解釋性帶來透明度,而透明度將帶來更大的信任度。
目前,許多智能教育產(chǎn)品片面關(guān)注機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù)結(jié)果的精準(zhǔn)度,而忽視技術(shù)應(yīng)用的可解釋性與可理解性。我們通過人工智能技術(shù)對(duì)教育數(shù)據(jù)進(jìn)行收集、輸入和處理,獲得輸出的結(jié)果和決策,但卻無法理解和解讀模型中的工作原理,因此導(dǎo)致人工智能得出的結(jié)論無法解釋。不可避免地,具有偏見的教育數(shù)據(jù)集與算法有可能帶來不公平或錯(cuò)誤的結(jié)論或決策,因此,亟需建立有效的機(jī)制對(duì)其結(jié)果進(jìn)行解釋或驗(yàn)證。由此可見,智能技術(shù)存在的“黑箱”問題,使智能教育系統(tǒng)的決策結(jié)果缺乏透明度和可解釋性。在此基礎(chǔ)上,智能教育的有效性因缺乏解釋能力和因果機(jī)制而受到限制和質(zhì)疑。
在自適應(yīng)學(xué)習(xí)系統(tǒng)中,智能教育的可解釋性包括模型理論、學(xué)習(xí)路徑和訓(xùn)練數(shù)據(jù),以及針對(duì)某些特定的學(xué)習(xí)場(chǎng)景和任務(wù)訓(xùn)練的人工智能模型。一方面,開發(fā)人員需要了解算法的真實(shí)性能和局限因素并對(duì)公眾闡釋說明,從而達(dá)到可解釋的效果;另一方面,科技公司需要提供可解釋性機(jī)制、工具和服務(wù),從而減少算法偏見和歧視,使教師和學(xué)生從透明的算法中受益,增強(qiáng)對(duì)人工智能系統(tǒng)的信任。
需要指出的是,可解釋的智能教育系統(tǒng)不是一個(gè)單純的技術(shù)問題,更是一個(gè)教育理論和教學(xué)原理問題。在可解釋的人工智能教育的研究中,要充分利用不同學(xué)科的知識(shí)和經(jīng)驗(yàn),共同研究、開發(fā)和應(yīng)用人們可以理解的智能教育系統(tǒng)。
在此基礎(chǔ)上,需要提高教師和學(xué)生的人工智能素養(yǎng)。它要求將人工智能知識(shí)、技能和倫理方面的教育納入各級(jí)各類學(xué)科的教學(xué)中,以便教師和學(xué)生能夠了解和掌握與人工智能系統(tǒng)進(jìn)行互動(dòng)的知識(shí)和技能,理解人工智能的算法和模型,并做出明智的決定和行動(dòng)。一方面,智能教育系統(tǒng)的實(shí)際效用取決于機(jī)器是否能夠被充分理解,并向管理者、教師、學(xué)生解釋其特定決策和行動(dòng)的理由;另一方面,教師和學(xué)生的人工智能素養(yǎng)直接決定他們是否能夠理解智能系統(tǒng)給出的建議和結(jié)果,進(jìn)而優(yōu)化教學(xué)和學(xué)習(xí)過程。
因此,可解釋的人工智能是打開智能教育“黑箱”的前提,而人工智能素養(yǎng)是確保智能技術(shù)在教學(xué)過程和教育評(píng)價(jià)中有效應(yīng)用,以及教育系統(tǒng)決策可理解、可信任、可管理的基礎(chǔ)。
本期專欄刊登托雷·霍爾(Tore Hoel)教授等人撰寫的《可解釋人工智能的教育視角:基于倫理和素養(yǎng)的思考》(AI Explicability from an Educational Perspective: Rethinking Ethics and Literacy)一文,探討人工智能可解釋性在不同層面的應(yīng)用以及未來人工智能給教育可能帶來的機(jī)會(huì)和挑戰(zhàn)。文章介紹了機(jī)器學(xué)習(xí)等技術(shù)以及可解釋人工智能的工作原理,并從教育視角提出為了實(shí)現(xiàn)人工智能的可解釋性,還需要普及人工智能教育,通過系統(tǒng)的人工智能課程來提高人們的人工智能素養(yǎng);強(qiáng)調(diào)人工智能首先需要被理解,人們才可能建立對(duì)人工智能的信任。因此,加強(qiáng)人工智能素養(yǎng)教育,特別是人工智能倫理方面的培訓(xùn),是教育在促進(jìn)未來社會(huì)發(fā)展中所擔(dān)負(fù)的重要責(zé)任和義務(wù)。