|
基於生成式人工智能(AI)的工具將極大地提高員工的生產率,但企業裡負責落實這些AI工具應用的技術管理者卻在忙不叠地了解AI技術的潛在網酪安全風險。
隨著像微軟(Microsoft, MSFT) Copilot這樣的AI工具得到越來越廣泛的應用,企業領導者現在有責任了解他們所獲得的新功能裏面到底包含了什麽,以及這些AI應用是否通過了安全審查。Copilot是壹種嵌入微軟工作場所軟件中的生成式AI工具。爲了加強供應鏈管理,很多公司長期以來壹直依賴于從制造商那裏獲得的貨物清單,其中詳細列出了每個組件的來源。最近,軟件供應商也面臨著設計出類似的“軟件物料清單”的挑戰,這樣的清單要列出軟件代碼中的內容,包括開源和專有組件。
歐盟執法機構歐洲刑警組織(Europol)的數據科學家David Johnson最近在布魯塞爾的壹次會議上表示,在某些情況下,生成式AI可能會帶來安全風險,因爲模型是用預先存在的代碼進行訓練。他表示,這些代碼可能包含漏洞,因此,如果該模型隨後生成新代碼,就會繼承同樣的漏洞。
|
|