【醫療業】癌症機構建置應用生成式 AI 的關鍵考量

2024-08-15 | Maria Korolov

去年,生成式 AI 的過度炒作是有目共睹的,儘管有許多干擾、未經證實的優點和潛在的陷阱,但 Dana-Farber 癌症機構(簡稱 DFCI)的資訊長 Naomi Lenane 並不想完全禁止這項技術。這項技術無疑是具突破性的,機構的員工也可能會用它做一些有趣的事情。

但是,允許自由、不受限制地使用公共生成式 AI 平台並不是他們的選項。因此,DFCI 採取了三個主要步驟,以可控的方式部署生成式 AI。這三個步驟包含建立治理框架、構建一個安全的內部工具供員工使用,以及開發一個流程以審核嵌入第三方系統中的生成式 AI。 內容目錄 隱藏 主動治理:治理框架優先制定 內部開發 將 Gen AI 作為盟友 供應商管理 展望未來 主動治理:治理框架優先制定 Lenane 說:「一年多前,無論你在任何地方,都能感受到這項技術巨大的炒作。因此,作為一個組織,我們開始與法律顧問、資深臨床轉館和一些營運主管進行討論,我們的員工能使用這種 AI 技術嗎?我們應該提供甚麼樣的規範?」 這些主管和其他利害關係人,共同形成了一個生成式 AI 治理社群,成員包含該機構的隱私長、業務主管、通訊部門、人力資源部門以及臨床部門的成員 – 他說:「從醫師到慈善機構的相關人。」 第一步是向整個組織發布聲明,內容關於能夠使用明確批准用於臨床工作或其他用途的工具,但不能使用免費工具。而從一開始,員工就迅速提出了生成式 AI 的使用案例。

他指出:「大多數部門都有具體的問題需要解決,或者有可以成倍提高效率的工作例子。實際的使用者來自品管、安全、慈善機構以及人力資源等部門。像是我們想把七個不同的工作流程整合成一個,這些都是明確的使用案例。有些我甚至沒想到。」 這些是生成式 AI 可以更快、更高效完成的工作,有些甚至做得更好或更優雅。他表示:「我很高興地發現人們有扎實的案例應用於改進工作。」不過,沒有人提到:「如果我們這樣做,可以減少全職員工數量。但他們可以完成更多的工作,並花更多的時間在以人為本的任務上,而不是重寫工作描述或提案。」 治理社群為想要使用生成式 AI 的員工制定了培訓計劃,並建立了隱私和安全政策。與此同時,該機構的 AI 推動小組開始進行一個名為 GPT4DFCI 的生成式 AI 專案,這個專案將在機構內部網路中運行,並研究如何與導入生成式 AI 的供應商合作。

內部開發

Lenane 表示,GPT4DFCI 是為非臨床用途設計的,並於去年首次與使用者進行測試,預計於 2023 年底和 2024 年初全面推出。現在已經在整個組織中使用,也包含 IT 部門。例如,鼓勵員工用它撰寫文件,因為很多技術人員不喜歡或不願意做這些事。 大家也用它進行一般性研究,他說:「我們鼓勵員工在需要時使用它來理解他們不了解的東西,但我們還沒有全面推行它作為加快編碼的方式。」相反地,他們採用基於 OpenAI 的 GPT-4 Turbo,並託管在研究所的 Azure 私有雲內,因此沒有數據會洩漏回 OpenAI。GPT4DFCI 更像是一個改進的搜索引擎,幫助員工能更好地理解某些事物。

Lenane 自己也使用 GPT4DFCI 協助重寫電子郵件或文件。他說:「如果我試圖向我的老闆,也就是 CFO 解釋一些事情,我有時會把技術內容,使用用生成式 AI 工具,重新編輯內容以確保表達得很好或更清晰。」這個工具提供了強化的 AI 模型,能夠應用於內容過濾和審計,他還使用 GPT4DFCI 更新或合併對工作職掌的描述。他補充說:「前幾天我應用這樣的方式撰寫某人的晉升文件,但它對我來說有點太華麗了。整個部門都會知道這不是我寫的,所以我自己確實也做了一些後續編輯。」

將 Gen AI 作為盟友

DFCI 擁有大約 5,000 名的直接僱員,另有 5,000 名透過贊助商或其他合約安排租賃給 DFCI,或是提供總務等服務的供應商的員工。目前,大約有 1,400 人正在積極使用 GPT4DFCI。 Lenane 說:「我們開放了這個工具,並且人們需要在完成一些必要的培訓後註冊使用它。畢竟,要從這個工具中獲得良好的回應內容,你必須要能正確地提問,並考慮你輸入的問題提示以獲得可靠的答案。」儘管 GPT4DFCI 不允許使用於臨床目的,因為治理委員會已經規定了這一點,但它已經過隱私和通訊安全團隊的審查,以確保其安全性和有效性。 他表示,這是一種有用的方法,其他希望為員工提供更高效率工具的機構也可以效仿,但不希望給其他機構帶來更大的風險。 DFCI 還設有一個 Dana-Farber 前端介面,因此員工不會直接與 OpenAI 的聊天機器人互動。這使得機構可以追蹤使用的情況和進行紀錄查詢,並全面了解大家是如何使用這個工具。如此一來,也就能夠在其周圍建立安全性、合規性、個人資訊檢查等防護措施。 Dana-Farber 的 AI 營運和資料科學服務總監 Renato Umeton 表示,由於 GPT4DFCI 運行在 Azure 上,這是一個符合 HIPAA (美國健康保險可攜性和責任法案)的雲端環境中,因此一些發規限制的問題也就獲得了處理。 他說,根據 HIPAA 的規定,由於保護病人隱私和資料的義務,使得機構不能使用公共的生成 AI 服務,如 ChatGPT,而這也讓從新開始訓練大型語言模型的成本過高而難以進行。他說:「儘管考慮過本地開源的 LLMs,但它們需要大量的基礎設施投資,可能無法提供如同 GPT-4 的同等靈活性。」 在選擇具體的商業 LLMs 使用時,機構參考了 LMSYS Arena 標竿。他補充說:「GPT-4 一直是最優秀的模型組之一,提供給所有使用者未經微調的版本。所以,我們在各種不同專案中,成功地加入不同的相關參數,而成功實作了檢索增強生成(RAG)。」 檢索增強生成是使用向量資料庫,或其他知識庫為個別查詢,提供額外上下文,使結果更加準確和定制化。Umeton 說:「例如,我們與康乃爾合作,利用 RAG 綜合了數百篇手稿,對即將發布的 PathML 工具包提供了重要資訊。」

他指出,已經將 GPT4DFCI 的 API 提供給想要進行初步測試的工程師,目前有許多人正在探索應用 RAG 技術進行資料的提取和聚合。而營運、基礎研究和臨床研究人員,則使用 RAG 探索自己感興趣的使用案例,同時協助進一步改進 GPT4DFCI API。 在過去的幾個月裡,團隊中的 GPT4DFCI API 討論社群,從三名開發人員成長到超過一百人。他指出,為了確保資訊安全,應用程式是在機構的 Azure 環境內構建的,而且採用的安全措施包含專屬的 IP 地址、VPN 路由、服務對服務身份驗證和 HTTPS 強制要求等。 他說:「我們還實施了內容過濾,以最大限度地減少有害的內容並報告不合法用戶。」DFCI 的 AI 治理委員會還專門為 GPT4DFCI 制定了負責任的使用政策。 他補充說:「作為政策防護的一個例子,所有員工都被要求對他們的工作成果負責,無論生成方式為何。」因此,大家只能使用 GPT4DFCI 獲得他們能自己驗證的結果,並且必須注意偏見或不完整的資訊。在大多數使用情況下,還要求披露所使用的工具。 Umeton 將生成式 AI 在臨床照護中的使用,比作新藥的使用。他說:「藥物需要通過臨床試驗評估安全性和有效性,我們應該使用類似的臨床試驗框架評估臨床 AI 的所有使用。」但機構能夠將資源集中在其它應用上,如研發和營運。Umeton 補充指出,這些是 AI 可以提供高投資回報且風險相對較低的應用方式。

供應商管理

生成式 AI 不僅僅是在免費、不安全的公共聊天機器人和私密、受控的聊天機器人之間進行選擇。對許多公司而言,員工主是藉由他們已經在使用的企業和生產力軟體,與生成式 AI 互動,Dana-Farber 也不例外。 Lenane 說:「所有的人力資源供應商,包含我們自己的供應商,都正在發行或準備發行生成式 AI 整合功能。例如,可以使用於審查文件或創建草稿文件的 AI 功能。」 他說:「還有一些業務供應商,如 Microsoft Copilot 類型的解決方案。我們能否使用這些工具製作更漂亮的 PowerPoint,或者重寫電子郵件使其更加清晰或不那麼呆板?」在某些情況下,生成式 AI 功能是對現有軟體系統的免費升級,這些功能已經是 Dana-Farber 現有合約中的核准使用工具。 他補充說:「如果有額外費用,我們可能會嘗試測試使用某些工具,以瞭解這些工具是否值得這些費用,並觀察大家會如何使用它。因此,有關第三方軟體的實驗過程,從今年早些時候就開始了,現在正進行一個 Copilot 測試,以確認這個工具在幫助人們撰寫電子郵件方面的應用。」

生成式 AI 附加到第三方軟體的問題是 Dana-Farber 正在仔細研究的事情,而這已成為治理小組的一部分,該小組確保讓利害關關係人能夠參與 AI 相關的供應商決策,包括供應鏈主管、技術主管或隱私主管。例如,供應商合約可能需要新增不同的語言以涵蓋生成式 AI 的使用情況,而這些工具的使用還需要遵守一些額外的具體要求。 他說:「我們強烈認為由 AI 生成的任何內容都需要有真人審查,許多供應商也正以這樣的方式建構新技術的應用。不過,比較困難的是那些在程外購買的工具。」為了因應這種情況,治理委員會還必須對組織進行教育。 他說:「我們不能失去對我們知識產權的權利,也不能允許這些供應商使用我們的內容,替其他工具或產品進行學習訓練,這些都是很難向 10,000 人傳達的概念,但我們正在努力做到。」 領導團隊代表參與治理委員會,有助於傳達生成式 AI 需要經過法律和資訊安全審查的內容。他說:「我們要自問,是否理解他們對我們資料的處理方式?」

展望未來

Umeton 指出,執行贊助和多學科治理委員會是該機構推動生成式 AI 部署的關鍵因素。對於 GPT4DFCI,一個小心謹慎的推行過程也是關鍵。從一小群資深用戶開始,逐步擴大應用範圍。 他說:「GPT4DFCI 為我們的員工提供了相當於一個優秀實習生的協助能力,他們能夠根據網路資訊起草高品質工作所需的內容,但因為這位優秀的 AI 實習生沒有任何工作經驗,所以需要其他人的監督。」 接下來,該機構將開設有關提示工程技術和使用生成式 AI 的道德培訓課程。在治理方面,Dana-Farber 將繼續完善其 AI 政策,與社區溝通,審查使用情況,討論道德相關的考量,並保持對外部法規和行業學習的不斷更新。 保持更新的心態和行為並不總是容易的,他承認,隨著 AI 的快速發展,包括多模態模型和代理人,掌握大量資訊讓壓力變得異常巨大。Umeton 自己表示,他有一個機器人監控新聞和社交媒體動態,並編制每週摘要供他審閱。 他說:「ChatGPT 的出現只是個開始,隨著反應延遲的減少和視訊串流處理的進步,我們正在接近獲得一個可以無所不在的 AI 代理人的未來。」

資料來源:https://www.cio.com.tw/medical-industry-key-considerations-for-building-application-generated-ai-by-cancer-agency/

Related posts