如果您今天進行衡量,您的企業在人工智慧透明度方面得分如何?無論您是使用人工智慧 (AI) 推薦產品、開發藥物還是篩選求職者,您都將數據委託給它,但沒有完全了解它如何做出決策。如何更好地理解人工智慧黑盒子背後的邏輯,並更好地揭露人工智慧何時以及如何被使用?
缺乏透明度正在造成消費者和品牌之間的信任差距。最新的《人工 阿塞拜疆 WhatsApp 電話號碼列表 智慧互聯客戶狀況》報告發現,只有 42% 的客戶相信企業會合乎道德地使用人工智慧,這一比例低於 2023 年的 58%。到目前為止,人工智慧的使用方式及其可以創造的好處更加透明。
您今天就可以採取措施,確保您對公司如何使用人工智慧持開放態度。
超過 16,000 名消費者和企業買家的見解發現,信任度正處於近年來的最低點。人工智慧的進步使得贏得信任比以往任何時候都更加重要。了解客戶的痛點是人工智慧成功的關鍵。
獲取免費報告
“公司將其法學碩士視為商業機密”
人工智慧的透明度一直很重要,但隨著 10 月發布的基金會模型透明指數的發布,透明度變得尤為突出。這項由史丹佛大學領導的研究發現,包括Google和 OpenAI 在內的所有 10 家主要基礎模型公司都「缺乏」透明度。這就是慈善。當對透明度的 100 個面向(包括受版權保護的資料的使用和有害資料的過濾)進行評估(滿分為 100 分)時,得分最高的公司獲得了 54 分。
大型語言模型(LLM)本質上是不透明的。它們的規模和複雜性使得我們很難完全理解他們的決策過程。事實上,由於這些模型計算的是機率而不是確定性,因此您可以向法學碩士提出相同的問題 10 次,並獲得 10 種不同的答案。同時,根據 Prompt Engineering Institute 的說法,「公司將其 LLM 視為商業機密,僅揭露有關模型架構、訓練資料和決策流程的有限資訊。這種不透明性阻礙了對系統的偏見、缺陷或道德問題進行獨立審計。
無論如何,沒有太多獨立審計發生。這是一種新的做法,除了紐約市這樣的異常情況外,任何地方、州或聯邦機構都沒有強制要求。但您不需要等待授權來實施您自己的透明度協議。以下是各行業面臨的人工智慧問題的一些透明度,以及如何解決這些問題的技巧。
閱讀有關透明且值得信賴的人工智能的更多信息
Atlas Reasoning 引擎如何為 Agentforce 提供動力
人工智慧代理設計
你的人工智慧代理應該如何「人性化」?簡而言之,不是很