進修充電

ChatGPT聊天機器人、AI夯,企業採邊緣模式資安風險低卻暗藏一隱憂

撰文者:中央社 更新時間:2023-08-28 瀏覽數:9,622

關鍵字:

AI 資安 中央社 機器人 ChatGPT

圖片來源:達志影像

研調機構DIGITIMES今天表示,ChatGPT熱潮推動生成式人工智慧(AI)技術快速發展,考量成本與資安因素,企業初期以導入大型語言模型以雲端代管制為首選,同時邊緣模式資安風險低,但投資成本較高。

DIGITIMES透過新聞稿指出,業界看好ChatGPT聊天機器人市場,在生成式AI技術廣泛應用下,隱藏許多資安問題,目前邊緣模式為降低資安風險最佳方案,但投資成本相對雲端模式高。


另外,邊緣端模式因封閉網路架構,資安等級較雲端方案高,但資安系統需用戶自行建立與維護,成本相對雲端為高。

DIGITIMES研究中心分析師黃耀漢分析,雲端模式因開放網路架構,資安等級較邊緣端方案低,但資安系統由雲端平台業者負責建立與維護,用戶擔負資安的成本較邊緣端低。

他解釋,軟體業者看好生成式AI市場前景,紛紛投入生成式AI軟體開發,其中關鍵技術在於大型語言模型(Large Language Model),微軟(Microsoft)、Google、亞馬遜(Amazon)等指標業者紛推出大型語言模型提供企業選擇。

黃耀漢表示,美國生成式AI平台Writer問卷調查顯示,2023年1至4月美國企業20%曾使用5種以上的生成式AI軟體,其中,前5名使用軟體皆為生成文字類,主要應用於資訊系統、營運管理等領域,有鑑於此,指標業者紛推出大型語言模型,以商業模式區分,微軟、Google為B2B與B2C,亞馬遜為B2B。

黃耀漢強調,雲端大型語研系統存在高運算力需求、高硬體成本、高延遲與低資安的問題,推論程序可由雲端轉移至邊緣端,可望克服相關問題;因邊緣小型語言模型具備低延遲與高資安優勢,因此,Meta、微軟、Hugging Face分別推出小參數量語言模型,有利於邊緣裝置上運作推論程序。

希望透過更好的報導與文章品質,讓台灣社會向上提昇。

  • «
  • 1
  • »

您可能有興趣的文章