▓成人丝瓜视频▓无码免费,99精品国产一区二区三区不卡 ,大长腿白丝被c到爽哭视频 ,高清无码内谢

澎湃Logo
下載客戶端

登錄

  • +1

JAMA | FDA如何監管醫療保健領域的AI?

2024-12-28 20:17
來源:澎湃新聞·澎湃號·湃客
字號

關注“醫工學人”澎湃號及公眾號,第一時間獲取醫工交叉領域新聞動態~

本次對話是JAMA Network編輯和專家嘉賓探討圍繞人工智能 (AI) 和醫學快速發展的交叉點的問題的系列訪談的一部分。

美國食品和藥物管理局(FDA)局長Robert Califf在最近的JAMA特別通訊中寫道,電子健康記錄和遠程醫療平臺等熟悉的醫療保健技術在它們剛剛出現時可能被“吹捧為革命性”,但人工智能“在希望、期望和擔憂方面已經超越了它們”。

基于此,在JAMA最新一期的訪談節目中,JAMA+ AI 的主編兼馬薩諸塞州總醫院定量健康中心主任 Roy Perlis 醫學博士與Califf博士談到了FDA在監管 AI 工具方面的作用。

隨著 AI 越來越多地應用于醫療保健和生物醫學,Califf 博士呼吁利益相關者共同承擔責任,包括監管機構、技術行業參與者、衛生系統,甚至像 JAMA 這樣的期刊。

為考慮清晰易讀和篇幅長度,以下采訪經過編輯。

聲明:本文僅供醫療科技領域專業人士了解最新醫療科技進展,不代表平臺觀點。文章閱讀預計用時15分鐘。

羅伯特·卡利夫 (Robert Califf) 醫學博士

Perlis博士:您最近在 JAMA 上發表了一篇關于 AI 監管主題的特別通訊,FDA 多年來一直試圖積極主動地發布指南,尤其是自 2021 年以來。您指出,FDA 已經批準了近 1000 種使用 AI 的設備,這與“AI 即將到來,我們最好為此做好準備”的說法有些背道而馳。所以我要問你的問題是,進展如何?

Califf博士:嗯,看到這么多人將 AI 投入設備、藥物開發、處理供應鏈,這是一個非常激動人心的時刻。AI 在我們所做的許多工作中根深蒂固。我們甚至不去想它。然后當我們談論它時,我們表現得好像這是正在發生的某種獨立的事情。但這一波 AI 浪潮無疑催生了對監管和創新以及它們如何平衡的深思熟慮的需求。

Perlis博士:為什么現在寫論文,而不是一年前或一年后寫?是什么讓你和你的團隊說,這就是我們現在想推出的東西?

Califf博士:作為 FDA 專員的一個有趣之處在于,你有點處于領先地位,但 FDA 所做的很多事情都非常特定于受監管的行業。該行業在很大程度上依賴于來自 FDA 特定部門的指南和規則,通常是監管該行業這些部分的中心。

但是在我的職位上,我可以看到正在發生的一切,我覺得這是一個美好的時光,我的合著者也是如此,他們是 FDA 的員工。他們認為現在是制定一些原則的好時機。這里的想法不是先于或覆蓋中心將要做的特定于被監管領域的任何事情,而是更多地關注我們在我們所做的事情中看到的一般性問題。

Perlis博士:您在論文中用作示例的一件事是你們都審查過的膿毒癥預測模型。您談到了監管保障措施,對于一些聽眾來說可能不太熟悉。您能否談談您如何看待這些保護措施,以及這在現實世界中意味著什么?

Califf博士:嗯,這里有幾個關鍵原則。我認為人們經常有這樣一種觀念,即 FDA 在每個人的制造設施和每個供應鏈節點中都在查看到底發生了什么。我們沒有能力做到這一點。因此,我們非常依賴行業遵循現有的指導方針、法規和法律。

例如,在農場,我們不會檢查每包食品。我們依靠農民遵守《食品安全現代化法案》的10條關鍵規則。然后,在需要的地方,我們建立了所謂的護欄或安全機制,將行業從可能危險或危險的事物引導到我們認為更具生產力的領域。

我想每個聽這個的人可能都知道,現在有一個臭名昭著的膿毒癥預測案例,結果證明它經常出錯。但我們認為,對于許多決策支持算法,實際上作為一般原則,如果你把 AI 算法放在臨床環境中,它會根據社會中影響結果的輸入和其他因素而發生變化。因此,必須像 ICU [重癥監護病房] 患者一樣對其進行監測。

將 AI 算法想象成被監控的 ICU 患者,而不是老式方式的藥物和設備。你制造一種藥物,你做一個臨床試驗,它必須在它的生命周期內是相同的藥物。AI 并非如此。因此,在我們提到的膿毒癥模型中,我們制定了特殊規則,要求在算法投入臨床環境后對其進行操作特性的監測。

Perlis博士:我很感謝你提出這一點,因為我認為大多數臨床醫生,在他們考慮 FDA 的程度上,都會考慮它在初始審批過程中的作用。我們考慮 3 期試驗并通過 FDA。偶爾,您會聽到一些東西從市場上撤出,但總的來說,最初的障礙似乎是大部分努力的地方。這是一個公平的描述嗎,這是否會隨著 AI 而改變?

Califf博士:這是對我們在藥物和設備方面所處位置的公平描述,這也是臨床界通常所考慮的。但請記住,我們也監管食品、化妝品、動物藥物和設備,以及各種其他事物。它大約占經濟的 20%。因此,每種商品的盤前和盤后平衡是不同的。但國會通過了一項法律,規定未經 FDA 批準或批準,不得跨州銷售醫療產品,具體取決于產品的風險水平。

對于所有藥物來說,這是高風險的。它非常嚴格。您必須證明您的藥物對至少 1 個適應癥的益處大于風險。然后傳統上,你對它的描述非常好。我認為對于這些醫療產品,人們認為上市后實際上只是一個監視出現的可怕事物的問題。我認為,我將討論我們的 AI 處于中間位置。但我們最近發表了很多論文,包括在您的期刊上,內容是當一種藥物進入市場時,我們知道的是,每 1 個人群中就有 1 個適應癥的益處大于風險。我們不知道價值的比較有效性,你應該給予它多長時間,它應該如何與其他療法聯合使用。但 FDA 無權像我們在上市前基地那樣要求進行研究。

很多人也誤以為我們只是編造了法律。這些法律實際上是由國會制定的,國會是由你們所有人選舉產生的。所以我們在上市前有很多權威。您必須滿足游戲規則。我們對其進行裁判。Postmarket,我認為我們需要回答這些問題是每個人的事情,而不是讓公司進行營銷。

那么 AI 屬于什么領域呢?AI 嵌入在設備中,或者 AI 作為決策支持算法,它在市場上已經存在,我們在上市后階段負有共同責任,以提升我們的評估能力。我認為這是 FDA 可以發揮作用的最大領域,因為現在可能有一些算法還沒有通過 FDA 被衛生系統使用,沒有人知道它們在是否準確、隨著時間的推移會變得更好或更差方面的變化是什么。這不是 FDA 自己可以做的事情。我們需要臨床衛生系統和專業協會積極參與自我監管,就像我們在農場所做的那樣,如果你是一個種植蔬菜的農民,而上游有一個農場的奶牛污染了水,你有責任考慮到這一點,在這個后市場階段也不例外。

Perlis博士:我喜歡將 AI 與農場進行比較,但也喜歡它不是一個全新的領域,這是你們在思考如何監管方面都有經驗。但是,您如何讓衛生系統保持一致?這似乎需要在系統、制造這些東西的人以及 FDA 之間進行大量的來回溝通。

Califf博士:嗯,我不希望你把矛頭對準我們——你也有責任。你是 Journal of the American Medical Association,對吧?因此,這里有大量的相互責任。我們請求國會提供更多的法律授權來幫助實現這一目標。我對此非常擔心,因為我認為今天人工智能算法在我們的衛生系統中的主要用途是優化財務,不幸的是,鑒于我們目前的支付系統,這往往意味著通過迎合已經有錢或有良好保險的人來制造差異。

我們的責任實際上是為了安全和有效性。我們不允許考慮經濟因素。因此,我們在這里相對純粹,希望看到一個算法不會造成差異而是改善健康的系統。我認為你會看到 FDA 對這個主題一貫的鼓吹,但我們無權介入并抓住算法和人們可能想象的那種東西。我們必須在一個生態系統中工作并說服。如果國會行動起來,他們可能會通過一項法律,賦予我們更多的權力。但我不認為這種情況會很快發生。所以這將是相互問責。

我認為,衛生系統和在其中工作的臨床醫生在很大程度上掌握了權力,他們要求在使用人工智能時,要智能地使用它,并且操作特性......如果你說你在預測膿毒癥,你多久準確一次?在您的預測中,區分膿毒癥和非膿毒癥患者的敏感性、特異性和能力如何?必須不斷關注這一點,以確保您做對了。這只是我能舉出的眾多例子之一。

Perlis博士:在 AI 和更廣泛的計算機科學中,人們喜歡做 Bake-Offs,對吧?我們將這個模型與另一個模型進行烘焙,現在我們有了這些模型的排行榜。鑒于傳統上你不從事這個比那個更好的業務,除非這可能比安慰劑好,那么你是否考慮過模型之間的比較?或者它只是它是否有效的閾值?它有這些特征,或者沒有。

Califf博士:如果您愿意,讓我們將我們的監管機構與醫學實踐或公共衛生實踐分開。我們的監管機構不允許我們要求比較有效性數據,但我在 FDA 之外的大部分職業生涯都在做大型臨床試驗,其中大部分是 3 期或以后的試驗,試圖找出哪種治療方法最好,或者如何聯合治療,或者如何調整劑量以獲得更好的結果。所有這些都與 AI 環境有關。正如您所說,您將看到越來越多的 Bake-Offs,包括計算機數據集或歷史數據集。但是,在完整的衛生系統下,這里的美妙之處在于,如果你正在比較預測算法或決策支持,你可能會做很多事情,而不會給患者帶來獲得劣質治療的風險。你可以做比較。你正在運行計算機算法。

有很多方法可以解決這個問題,但除非有所改變,否則它不會是 FDA 強制的方法。我認為優秀的臨床醫生會想知道哪些算法是最好的。我仍然記得我在 FDA 之前在心臟病學領域的一個古老理論。公司做了很多他們不一定想做的事情,因為臨床界要求知道最好的治療方法是什么,而已完成的臨床試驗指南中的陳述對他們的底線極為重要。因此,如果我們能在臨床社區建立這種風氣....我又回到了你這里。至少在我看來,您在 JAMA+ AI 的工作中肩負著重大責任。

Perlis博士:所以,讓我試著把球放回你的球場上,了解你對審判的深思熟慮。我認為挑戰之一是,至少開發新干預措施的人通常不愿意嘗試新的試驗設計。其中一些擔憂來自它將如何與 FDA 合作。至少在我所在的精神病學領域,沒有人愿意嘗試新的結果測量。沒有人愿意嘗試新的研究設計。您認為好的老式 3 期試驗設計會通過 AI 很好地為我們服務,還是您認為有某種方法可以通過這種新技術讓人們超越這一點?

Califf博士:我想說的是,許多領域已經超越了它。我不否認,從歷史上看,FDA 審查員的標準一直是嘗試新事物的一個主要問題。這并不一定是因為 FDA 說你不能嘗試新事物,但當公司查看其產品的凈現值時,如果你冒險采用一種新方法,然后它沒有成功,那么你就要向股東交代很多事情。但現在有許多領域不再適用,例如,平臺試驗正在成為常規。我只想說,平臺試驗、籃子試驗,它們都在這里發揮作用。我認為這是一個廣闊的領域。這可能更容易,因為藥物和設備本身不是上市前評估的問題。

我還應該提到,很多人會問,藥物開發中的 [AI] 怎么樣?FDA 對此非常感興趣。我們很快就會發布一些指導。CDER [藥物評估和研究中心] 和 CBER [生物制品評估和研究中心] 已經寫了很多關于藥物和生物制劑的文章。所以我們很感興趣。我們的審稿人需要與時俱進。從根本上說,將 AI 用于藥物發現和破譯蛋白質等等......這是該行業的業務。我們很感興趣,但那里發生的事情實際上是生產一種藥物,然后必須在臨床試驗中進行測試。這并不是說 FDA 會強制要求在臨床前、早期臨床開發中使用某些 AI 方法。臨床試驗設計和合成對照組領域,所有這些都是 FDA 可以發揮重要作用的地方,并將繼續發揮。

Perlis博士:您提到的一件事是,擁有對 AI 和研究 AI 的方法足夠了解的審稿人的重要性。您在 FDA 層面是如何處理的?您如何確保擁有了解這些工具并能夠真正評估它們的人員?

Califf博士:嗯,人們對此非常感興趣。我們有很多在數量上有天賦的人,他們在各個層面都有數字技術和計算經驗。所以我并不真正擔心我們的員工。至少現在是這樣。我們在招聘方面沒有遇到很大困難。如果人們在技術上合格且感興趣,我們就會找到工作,但這將是一個持續努力的問題。我們剛剛舉行了為期 3 天的研討會,外部行業和學術界人士進來,量子計算是主題之一。它就在這里。因此,我們將不得不跟上一些全新的領域。眾所周知,這將是一個挑戰。例如,我們不能支付科技行業支付的費用,但我們有優秀的人才,我不擔心他們的基本理解。

Perlis博士:作為一名編輯,我經常與當今最前沿的論文作斗爭,我擔心一年后甚至不會被引用。其他事情會發生。鑒于事情的發展速度,您認為我們是否能夠合理地處理如何監管這些事情,以及如何應用它們以跟上技術本身的發展方式?

Califf博士:我想說我們做得比大多數人想象的要好,但該領域正在呈指數級變化,而不是線性變化。所以這是一個令人擔憂的問題。隨著生成式 AI 的出現以及消費者與設備交互的整個空間在非醫療領域發揮作用,...例如,最容易考慮的地方是 Apple Watch,在同一臺設備中帶有醫療適應癥,這是一款消費類設備。這些事情將非常具有爆炸性,你的樣本量在數百萬到數十億之間,所以事情在短期內可能會迅速發展。

Perlis博士:在論文中,您特別指出了語言模型作為監管可能特別具有挑戰性的一個領域,因為它們并不總是特別透明,而且您不完全了解它們在許多情況下是如何工作的。你怎么看?您認為語言模型需要特定類型的控制措施嗎?

Califf博士:我認為是的,他們需要特定類型的控制措施,但我認為現在沒有人確切知道它們應該是什么。有一些令人興奮的機會,例如讓一個大型語言模型經常檢查另一個語言模型,因為存在幻覺和編造東西的風險。例如,最近有一些例子,診所記錄就發生了這種情況。可能是個大問題。

但它不斷回到生態系統中。我們是否要讓彼此相互負責?我們談論的是將系統嵌入到不斷變化的臨床實踐中。因此,我認為衛生系統、臨床醫生和患者有同樣多的理由將系統放在一起,以監控這些模型并確保它們正在做他們應該做的事情。

在我們的論文中,我一直提到的一個特別說明是,如果一個大型語言模型基本上是一組調整到因變量的數字和單詞,如果這個因變量是金融,那將對健康有害。

然而,如果你正在管理一個衛生系統,或者你是一名醫生或護士,你就需要謀生。因此,金融需要成為這個等式的一部分。但我認為臨床界 [需要考慮] 的一項重大工作是,哪些組成部分使該財務方程式對產生的健康結果負責?同樣,這些模型將非常好——我認為它們已經處于當前形式——將有利可圖的患者與無利可圖的患者分開。這是我們想要這樣做的方式,還是我們希望在系統中建立對健康結果的問責制?

Perlis博士:FDA 在這方面有一席之地嗎?

Califf博士:我認為 FDA 在標準、什么是好的研究、需要衡量的結果、分析方法等方面肯定有一席之地。但我們不能在那里監控醫學實踐中使用的每個模型。沒有任何可行的方法可以做到這一點。我們還在努力建立聯盟,以幫助促進需要發展的生態系統。我不認為這與農場或良好的生產實踐沒有什么不同,在農場或良好的生產實踐中,我們并非每天都在每個設施中。例如,我們正在做的是制定標準并幫助建立生產復雜生物制劑的實踐社區,這很難做到。而且我們有能力,因為我們看到了一切,所以能夠共享每家公司自己無法完成的信息。

Perlis博士:在您的論文中,您指出該行業實際上是一個完整的范圍,從大型制藥公司一直到小型初創企業。你確實提到了學術界。您如何看待維護一個從大到小的生態系統,因為這些小公司可能沒有與 FDA 合作等所需的資金?

Califf博士:在我們的每一個項目中,我們都為小家伙們預留了優先資源。對于設備,車庫里的 2 個人....我們并不指望他們擁有一個能夠為全世界生產高質量設備的制造系統。他們的目標通常是達到可以將他們正在做的事情賣給大型分銷公司的地步。制藥行業也是如此。例如,IND(研究性新藥申請)和 BLA [生物制品許可申請] 概念在起源時,小家伙們就可以休息一下。他們不必像大型制藥公司那樣付費。因此,我們將有一些東西將優先支持初創公司。這就是大多數好主意的來源。但是,要擁有一個在整個國家或世界各地維護的充滿活力的高質量生態系統,您還必須擁有具有可靠重型能力的大公司來確保這種質量。

所以我認為這對我們來說并不新鮮,但也許可以公平地說,對于大型語言模型中的生成式 AI 等事物來說,這尤其是一個大問題。你必須有一個大數據集才能開始,而大公司在這里有非常大的優勢。我們不僅需要在 FDA 解決這一問題,而且需要在社會上解決。

Perlis博士:剛才,您談到了您可以在監管機構范圍內做些什么。什么會讓你在 FDA 的生活更輕松?在一個完美的世界里,國會通過了一項法律,使監管 AI 變得更加容易或使 AI 更安全?哪些法律對您有幫助?

Califf博士:我不能在這里詳細介紹,因為我們不允許談論正在進行的法律。但我只想說,一般來說,我認為如果我們能得到國會的授權,在這個后市場階段制定標準,那將是有幫助的。如果你回到 10 年前,隨著算法越來越多地出現,FDA 的指導意見說上市前階段很重要,但監控模型的上市后階段,算法正在做什么,是至關重要的。因此,有更多的權力來實現這一目標。不是這樣做,而是說如果你把一個算法放在那里,你應該意識到你可能會被審計你的算法是否按照它所說的去做。

我認為我們已經做好了很好的準備,可以在通常試圖做正確事情的行業中執行工作。農民希望種植人們想吃的食物。因此,只要我們有善意,如果我們有正確的標準和一些執法能力,我認為這會有很大幫助。

▼參考文獻

Perlis R, Abbasi J. FDA Commissioner Robert Califf on Setting Guardrails for AI in Health Care. JAMA. 2024;332(23):1963–1966. doi:10.1001/jama.2024.24760

    本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            主站蜘蛛池模板: 北海市| 临沧市| 富蕴县| 肇东市| 象山县| 文昌市| 永兴县| 措美县| 阿巴嘎旗| 汉沽区| 莲花县| 剑川县| 沁水县| 乐安县| 若尔盖县| 泾川县| 株洲市| 美姑县| 高雄市| 三台县| 岳池县| 神木县| 德令哈市| 鸡西市| 黑河市| 镇坪县| 枣阳市| 梁山县| 漳平市| 榆树市| 育儿| 隆德县| 江川县| 平武县| 长子县| 苗栗县| 林周县| 南乐县| 铁岭县| 区。| 宁化县|