盡管目前存在各種炒作以及主流采用程度很高,但在走上生產力巔峰之路之前,生成式AI仍然需要經歷幻滅的低谷期。
生成式AI的快速普及和民主化,有些類似于近150年前燈泡給電力領域帶來的影響是一樣的。1831年電問世,幾十年之后在1879年燈泡問,與之類似的是,生成式AI給大眾和企業也帶來了實際的用例,正在給AI帶來相同的影響。
當技術從實驗室走進日常生活的時候,主流采用通常依賴于日益強大且經過驗證的初始用例。隨著如此迅速的普及,人們對于各種可能性感到非常興奮,這就是Gartner技術成熟度曲線中,生成式AI目前正處于過高預期頂峰的其中一個原因。
事實上,去年ChatGPT僅僅用兩個月就獲得了超過1億的月活躍用戶,它在技術成熟度曲線中正處于經過了炒作周期的位置。現在我們正處于主流采用階段,有近一半的人口正在使用生成式AI,但還處于期望過高的頂峰。因此仔細觀察一下,我們可能仍處于生成式AI的“煤氣燈時刻”,而“燈泡時刻”尚未到來。這并不是一件壞事。
在生成式AI的世界中,我們發現計算機正在以令人驚訝的方式出現錯誤。當我們嘗試將AI應用于公共和私有數據的時候,我們正在實時了解哪些數據是有效的,哪些是無效的。
以下是CIO們關于如何駕馭生成式AI炒作周期、為從幻滅低谷期迅速過渡到啟蒙的斜坡做好準備的五點建議:
對客戶、員工和利益相關者保持現實態度
在宣傳生成式AI和相關解決方案所具有的變革本質的同時,也請務必指出它存在的缺點。咨詢公司和技術廠商經常會強調生成式AI帶來的變革力量,但很少關注它的缺點。盡管如此公平地說,許多人正在努力幫助解決這些問題并推出各種平臺、解決方案和工具包。
抱有現實的心態,意味著你了解了利弊,并與客戶、員工和高管層的同事分享這些信息。他們也會欣賞你的坦誠。你要列出一份權威的清單,以便清楚地解釋和理解這些信息。正如一些AI顧問指出的,缺點包括黑匣子問題、AI容易受到人類觀點誤導、幻覺的影響,等等。
制定企業使用政策
企業使用政策和相關培訓可以幫助員工了解這項技術的一些風險和陷阱,并提供規則和建議,以充分利用這項技術,從而實現最大化的商業價值,而不會使組織面臨風險。在制定政策時,請務必讓所有相關利益相關者參與其中,考慮組織當前和未來將如何使用AI,并在整個組織內進行廣泛分享。你需要讓這個政策成為一份動態文件,根據需要以合適的節奏進行更新。制定這項政策有助于防范與合同、網絡安全、數據隱私、欺騙性貿易行為、歧視、虛假信息、道德、知識產權和驗證相關的許多風險。
評估每個用例的業務價值
在純文本輸出的情況下,我們傾向于相信生成式AI的答案,因為它們寫得很好,語法也很對。從心理學上來說,我們傾向于相信幕后有強大的智能,而實際上AI并不了解什么是真什么是假。
雖然生成式AI有一些出色的用例,但我們需要根據具體情況進行審查。例如,生成式AI通常不擅長編寫技術預測。輸出的內容常常告訴我們一些我們已經知道的東西,而且它也可能是抄襲的。即使使用重寫或改寫工具也只會讓事情變得更糟,而且團隊最終可能會比自己編寫預測內容花費更多的時間來使用這些工具。最好是有選擇的余地,并且只在有明顯好處的情況下使用AI。
保持嚴格的測試標準
由于組織中可能會有很多員工使用生成式AI,因此對員工進行培訓和教育使其了解利弊并以企業使用政策作為起點,是非常重要的。隨著生成式AI的廣泛采用,我們實際上都是測試者,需要不斷學習。
在組織內部,無論是在IT部門還是業務部門,請務必強調并在上線之前留出大量時間進行測試和實驗。建立內部實踐社區,員工可以分享經驗和教訓,也有助于提高整體意識并在整個組織內推廣最佳實踐。
針對技術故障制定計劃
即使是不支持AI的系統也可能犯下嚴重的、改變生活的錯誤。當我們錯誤地認為這些系統是正確的時,可能會導致數百名工人成為錯誤的目標。在英國郵政局案件中,15年來有700多名郵政局長被錯誤地指控為欺詐,導致名譽受損、離婚甚至自殺。
因此,當AI出錯時制定計劃就變得至關重要。您的企業通過政策設置了護欄,但當出現問題時,IT治理流程如何監控情況并做出反應?有計劃嗎?你的治理流程將如何區分正確或錯誤的答案或決策?犯下錯誤會給業務帶來怎樣的影響?糾正錯誤的難易程度如何?
生成式AI將會迎來它的高光時刻,而且不會等待太久,但要等到我們先度過幻滅的低谷期,登上啟蒙的斜坡,最后到達生產力的高原。一路上的煤氣燈時刻、實驗和學習都是這個過程的一部分。