近年來AI發(fā)展迅猛,已成為各行各業(yè)創(chuàng)新及提升生產(chǎn)力的重要工具,尤其是生成式AI的迅猛發(fā)展,更是讓白領(lǐng)工作者的生產(chǎn)力大幅提升,但其產(chǎn)生的副作用也為社會及產(chǎn)業(yè)帶來了許多新的議題。
?
從生成式AI近年的發(fā)展來觀察,其不僅可以自動生成文本、圖片及音樂,甚至可以幫忙寫程序。有位科技公司的上班族,從沒接觸過繪畫或?qū)懽?,但為了幫女兒寫一本睡前故事書,他用AI幫他編寫故事,再使用圖片生成AI工具來繪制插圖,短短幾天,他就在亞馬遜線上書店出版了作品。而從聊天機器人爆紅至今,現(xiàn)在亞馬遜電商上像這樣運用AI編寫、繪制的書籍,少說也有數(shù)百種以上,甚至還有多本列名電子書暢銷排行榜。
生成式AI的多元應用 大幅提升生產(chǎn)力
?
而在寫程序方面,根據(jù)程序碼管理平臺GitHub,針對任職于超過1,000名員工大企業(yè)的程序開發(fā)人員的調(diào)查顯示,92%的工程師表示自己會用AI來編寫程序,70%的受訪者表示AI對大幅提升程序碼品質(zhì)有幫助。調(diào)查也指出,AI工具讓程序開發(fā)人員工作成就感提升75%,寫程序的速度也提升超過55%。
?
我的朋友也跟我說這半年他感覺人工智能真的讓他大開眼界,尤其是聊天機器人的發(fā)展,就好像是貼心助理,大幅提高了他的生產(chǎn)力,而且公司人力也精簡許多。聊天機器人不僅幫他閱讀及整理數(shù)據(jù),還幫他看影片做摘要,甚至研擬法律文件與合約初稿,跟過去花許多時間及成本不斷招募及訓練新人,但流動率仍居高不下的情況相比,成本低、效果又好。
?
他也提到有家做圖像設(shè)計服務的公司,因為善用人工智能來繪圖,竟然可以減少70%的人力,更增強了他學習人工智能的決心;有個作品牌的公司老板也跟我說,過去每周設(shè)計部門畫不到幾張圖,現(xiàn)在每天有幾百張圖可以選,看到眼睛都花了。
?
也因為生成式AI的應用多元且功能驚人,預計將快速滲透至食醫(yī)住行育樂的各個層面,而在其功能及界面不斷改善下,百工百業(yè)也將有機會進一步采用以提升生產(chǎn)力,并提升顧客體驗。
加強教育與訓練 降低AI帶來的風險
?
但另一方面,生成式AI也帶來了許多的挑戰(zhàn)與風險。首先在技術(shù)方面,AI的透明度與準確性的問題,以及數(shù)據(jù)訓練及使用導致不公平、偏見歧視的問題,而信息不透明也帶來隱私和個人權(quán)益的威脅。也因而這幾年各界從探討透明的AI、可被解釋的AI、負責任的AI、有益的AI,到可信賴的AI,就是希望能降低大眾對AI可能造成危害的疑慮。
?
其次是生成式AI對版權(quán)和著作權(quán)權(quán)益的影響。實務上,未經(jīng)授權(quán)生成內(nèi)容可能侵犯原創(chuàng)作者的版權(quán)和著作權(quán)權(quán)益。Getty Images圖庫就控告Stability AI未經(jīng)授權(quán)即拿取數(shù)千萬張照片來訓練Stable Diffusion,以利系統(tǒng)日后根據(jù)用戶提示生成更準確的圖像。Getty 指控Stability AI不僅侵犯版權(quán)也違反了公平競爭;再者,從經(jīng)濟的觀點,生成式AI不僅影響著國家經(jīng)濟和產(chǎn)業(yè)競爭力,對工作形態(tài)及就業(yè)機會,也可能有很大的影響。
?
還有就是輿論操縱的問題。生成式AI缺乏內(nèi)容監(jiān)管和控制,可能威脅社會穩(wěn)定。舉例而言,網(wǎng)絡(luò)曾出現(xiàn)以假亂真的AI圖片,比如各界名人被捕入獄等,類似的虛假信息可能產(chǎn)生不堪設(shè)想的后果。
面對洶涌而來的生成式AI,全球就有許多科技業(yè)著名人士聯(lián)名發(fā)出“暫停大型人工智能實驗”的公開信,其訴求并不在于停止開發(fā)AI,而是他們認為目前產(chǎn)業(yè)的AI競賽已經(jīng)失控,連開發(fā)者也無法預測、理解和管控其系統(tǒng)。因此呼吁業(yè)界暫時退一步,暫緩開發(fā)更高階版本的系統(tǒng),以免墜入危險,如:大規(guī)模失業(yè)、偏見與歧視、道德與法律等等問題。假如開發(fā)商不愿暫停,社會面應該介入。這也是為何各國目前都致力于可信賴及安全忠誠的AI發(fā)展規(guī)范與準則,確保有適當?shù)娘L險控管能力。
雖然世界上有些企業(yè)家呼吁應該停止發(fā)展AI一段時間,但我們認為仍應該積極善用AI帶來的巨大變革能力,也不該忽視其風險。亦即運用其來造福人類,同時確保有適當?shù)娘L險控管能力,包括制定AI倫理準則、加強相關(guān)法規(guī)與監(jiān)管,并采取有效的隱私保護及技術(shù)安全防范措施。此外,加強AI透明度和可解釋性。通過使用可解釋性的AI演算法、將AI決策與人工智能系統(tǒng)背后的原理相結(jié)合、開放AI模型、建立透明度機制等,以加強透明度和可解釋性。
?
其次,未來AI技術(shù)的發(fā)展,勞動人才與技能培育環(huán)境是否健全,攸關(guān)產(chǎn)業(yè)及國家競爭力。因此必須加強AI教育和培訓,提高勞動力的AI應用能力;同時要避免AI技術(shù)掌握在少數(shù)人、少數(shù)企業(yè)手中,促成AI普惠化。
?
再者,應加強多方及國際參與的協(xié)作機制。AI技術(shù)的發(fā)展需要跨國、跨界、跨部門、跨學科的合作。為了促進AI技術(shù)的發(fā)展和應用,必須建立多方參與的協(xié)作機制,促進不同領(lǐng)域之間的交流和合作,加強技術(shù)創(chuàng)新和知識共享。
最后,為了更好的應對AI帶來的挑戰(zhàn)和問題,必須加強人工智能教育和培訓,提高勞動力對AI技術(shù)和應用的認識和理解,增強對AI風險和挑戰(zhàn)的意識,并培養(yǎng)弱勢族群相對應的技能和能力,以迎接未來的挑戰(zhàn)!
?
總體而言,生成式AI的迅猛發(fā)展已經(jīng)在各行各業(yè)帶來顯著的生產(chǎn)力提升和創(chuàng)新機會。然而,這種技術(shù)也伴隨著一系列的挑戰(zhàn)和風險,包括透明度、準確性、版權(quán)和著作權(quán)權(quán)益、輿論操縱、隱私和個人權(quán)益等問題。我們需要在積極善用AI的同時,確保適當?shù)娘L險控管能力。