想象一下,有一種人工智能(AI)不僅僅遵循你的指令,還能自行決定如何實現(xiàn)你的目標。代理型人工智能(Agentic AI)正是如此:這是人工智能的一個新前沿領域,在這個領域中系統(tǒng)可以獨立運行。代理型人工智能有潛力革新諸多行業(yè)。但其高度的自主性伴隨著重大的責任——以及潛在的倫理困境。確保自主導向系統(tǒng)中的責任性、公平性和安全性是建立對這些技術的信任和可靠性的核心所在。
Keeley Crockett是IEEE會員以及《IEEE計算智能新興話題雜志》的前任副主編,下文中他將重點探討什么是代理型人工智能、它正在如何被使用以及在未來幾年可能會如何發(fā)展。
你會如何向沒有技術背景的人解釋代理型人工智能呢?
代理型人工智能指的是能夠獨立行動以實現(xiàn)目標而不需要持續(xù)人類控制的人工智能系統(tǒng)。這些系統(tǒng)能夠基于其程序設定和所處理的數(shù)據(jù)來做決策、執(zhí)行操作并適應各種情況,通常不需要人類輸入。一個目標可能包含若干個子目標。
關于這些系統(tǒng)在未來可能的應用有幾個例子。想象一下你有一個家庭清潔機器人,你只給它下達“保持房屋清潔”的指令。然后這個機器人就會在適當?shù)臅r候執(zhí)行任務,比如當它判定地板臟了就進行吸塵,飯后就去洗碗,以及定時把東西放回原位。這個機器人理解目標并且不需要持續(xù)的指令就能自主行動。
另一種情形涉及使用代理型人工智能來運營一個營銷項目。你可能會告知該系統(tǒng)要將銷售額提高20%。然后,一個代理型人工智能系統(tǒng)能夠獨立分析特定時間段內(nèi)的客戶數(shù)據(jù),以識別趨勢和偏好。接著,該人工智能將分析客戶數(shù)據(jù),基于這一分析開展營銷活動,并且如果發(fā)現(xiàn)活動未達到預期效果就進行調(diào)整。
代理型人工智能與傳統(tǒng)人工智能模型或自動化系統(tǒng)有何區(qū)別?
傳統(tǒng)人工智能模型遵循通常從數(shù)據(jù)中發(fā)現(xiàn)的預定義規(guī)則。如果沒有某種形式的重新訓練、測試和驗證,這類模型無法自動適應意外的變化。而且還需要人類的監(jiān)督和干預。傳統(tǒng)模型通常是為一項特定任務而構建的,例如分類任務,即構建一個模型來判定一個人是否有可能拖欠貸款還款。
代理型人工智能系統(tǒng)能夠獨立行動以實現(xiàn)特定目標,不需要持續(xù)的人類干預。它們可以從數(shù)據(jù)中學習、適應新情況并動態(tài)調(diào)整自身的行動。它們的行為是目標驅動的,并且必須弄清楚如何實現(xiàn)主要目標和子目標,這就要求它們獨立于人類對任務進行優(yōu)先級排序和解決問題。
代理型人工智能有哪些倫理影響?
代理型人工智能的使用引發(fā)了幾個關鍵問題。在如此復雜的系統(tǒng)中,如果出現(xiàn)問題,誰來負責?需要哪些數(shù)據(jù)和隱私保護措施?當代理型人工智能系統(tǒng)要做出具有現(xiàn)實世界影響的“道德”決策時,它應該如何應對?
這些問題對于傳統(tǒng)人工智能系統(tǒng)也是一樣的。盡管有倫理原則以及現(xiàn)行/新興的立法作為指導,但我們?nèi)栽谂斫獠⑵饰鲞@在實際運作的系統(tǒng)中意味著什么。最大的倫理問題是,人類處于何種位置?
當今是否有正在使用的代理型人工智能模型?它們具備何種程度的自主性?
如今,代理型人工智能被應用于自動駕駛汽車中,基于對車輛周邊環(huán)境的持續(xù)分析來做出駕駛決策。每一次出行都是一次學習體驗。
一些網(wǎng)絡安全公司使用代理型人工智能通過對網(wǎng)絡活動的實時分析來檢測組織內(nèi)的威脅并進行關聯(lián)。然后,人工智能會自動自主地對潛在的入侵做出響應。
我個人的觀點是,隨著研究的進展以及數(shù)據(jù)獲取量的增加,代理型人工智能的應用案例將迅速發(fā)展。這些系統(tǒng)的準確性取決于一個人愿意分享多少個人數(shù)據(jù)。