• 正能量網

    ChatGPT 可以在急診室挽救生命,但它需要監督

    GPT-4 (Generative Pre-trained Transformer 4) 是 ChatGPT 的繼任者。它于 2023 年 3 月 14 日面向有限觀眾發行。Jaap Arriens/NurPhoto via Getty Images

    • GPT-4 是 OpenAI 發布的最新人工智能技術。
    • 它比 GPT-3 更先進,可以幫助翻譯、總結和處理醫療信息。
    • 技術專家表示,它可以幫助挽救生命,但不應在沒有人工監督的情況下使用。

    GPT-4 是 OpenAI 提供的人工智能模型的最新和最先進的版本——OpenAI 是非常成功的 ChatGPT 產品的制造商——醫生說它可以顛覆我們所知道的醫學。

    雖然我們已經知道之前的 GPT 版本 3.0 和 3.5 可以在 MCAT 上獲得可靠的分數,但現在專家表示 GPT-4 也可以在現實世界中拯救人類生命,快速而巧妙地治療急診室患者。

    在即將于 4 月 15 日以電子書形式提供或 5 月 3 日印刷版的即將出版的“醫學人工智能革命”一書中,一位微軟計算機專家、一位醫生和一位記者聯手試駕 GPT-4 并了解其醫療功能. (微軟已經向 OpenAI 投資了數十億美元,盡管這本書的作者說它是在編輯獨立的情況下編寫的。)

    三位專家——微軟研究副總裁 Peter Lee、記者 Carey Goldberg 和哈佛大學計算機科學家兼博士 Isaac Kohane 表示,這個目前只對付費用戶開放的新 AI 比之前的聊天機器人更先進,也沒有那么傻。.而且它非常擅長消化、翻譯和綜合信息,以至于他們說它可以用于急診室以節省時間和挽救生命——今天。

    “我們現在需要開始理解和討論 AI 的潛在好處和壞處,”該書的作者敦促到。事實上,他們建議,無論我們是否知道,它可能已經在某些醫療環境中使用。

    GPT-4如何拯救生命

    在 2016 年 5 月 6 日星期五的一張照片中,住院醫師 Cameron Collier 醫生在看望病人時向一群住院醫師和醫學生做簡報。Gerald Herbert/AP Images

    在這本書的開篇,作者提供了一個假設的——但完全可能的——住院醫師和 GPT-4 之間的交互,作為該技術肯定會很快被醫生和患者使用的證據。

    首先是想象中的病人處于危急狀態,他的心率飆升,血壓驟降,臉色變得蒼白,然后變成藍色,大口喘著粗氣。他的護理團隊將“一個又一個注射器”插入他的靜脈注射器,試圖提高他的血壓并改善他的心臟功能,但似乎沒有任何效果。

    一位二年級住院醫師掏出手機打開 GPT-4 應用程序,向 AI 尋求建議。她向機器人解釋說,該患者對血壓支持“沒有反應”,并提到他最近接受了血液感染治療。最后,她懇求人工智能,“我不知道發生了什么,也不知道該怎么辦。”

    機器人立即回復一段連貫的段落,解釋患者可能崩潰的原因,提到最近的相關研究,并建議進行白細胞增強輸液治療。居民意識到 AI 暗示該患者可能會患上危及生命的敗血癥。如果是這樣的話,他需要那種藥,快點。

    居民迅速從醫院藥房訂購了 AI 建議的輸液,然后 - 批判性地 - 仔細檢查機器人告訴她的內容,對著她的手機說“給我看”這項研究。

    “不知何故,她覺得自己就像一位仁慈的導師兼仆人,掌握著世界上幾乎所有的醫學知識,握著她的手,”作者在書中想象到。住院醫師為患者開具處方后,她再次使用 AI 自動完成保險所需的文書工作,這大大節省了時間。

    “從診斷到醫療記錄再到臨床試驗,幾乎任何你能想到的方式,它的影響都將如此廣泛和深刻,以至于我們認為我們現在需要開始思考我們可以做些什么來優化它,”該書談到 GPT 時說-4。

    最近幾周,其他專家對 AI 應用于醫學各個領域的前景表達了類似的興奮和恐懼。

    “這確實是醫學界一個非常激動人心的時刻,‘革命’這個詞正在成為現實,”內科醫生 Eric Topol 在評論這本新書時在他的博客上寫道。

    GPT-4 在醫療環境中并不總是可靠

    GPT-4 聽起來像是醫學的未來,但有一個問題。GPT-4 仍然會犯錯誤,有時它的反應會在原本合理的醫療建議中出現細微的錯誤。專家們強調,在沒有人工監督的情況下,切勿使用它。

    AI 給出的錯誤答案“幾乎總是看起來是正確的”,這本書說,對于未經訓練的人來說可能被認為是有說服力和合理的——但最終可能會傷害患者。

    這本書充滿了 GPT-4 失誤的例子。作者注意到 GPT-4 在不太清楚該做什么時仍然會編造東西。

    “它比你見過的任何人都更聰明也更愚蠢,”他們寫道。

    GPT-4 也會犯筆誤,比如抄錯東西,或者犯直接的數學錯誤。因為 GPT-4 是一個機器學習系統,并不是由人類主動編程的,所以我們不可能確切知道它何時以及為什么會出現這些問題。

    作者建議讀者進行一種潛在的交叉檢查以幫助解決系統中的錯誤,即要求 GPT-4 檢查自己的工作,這種策略有時會發現錯誤。另一種是命令機器人向您展示它的工作,這樣您就可以驗證它的計算,人類風格,或者要求機器人向您展示它用來做出決定的資源,就像醫學生在假設情況下所做的那樣。

    “它仍然只是一個計算機系統,”作者總結道,“基本上不比網絡搜索引擎或教科書好。”

    轉載自頭條號:醫道社傳承民間中醫。(侵刪)

    本站為注冊用戶提供信息存儲空間服務,非“本站編輯上傳提供”的文章/文字均是注冊用戶自主發布上傳,不代表本站觀點,版權歸原作者所有,如有侵權、虛假信息、錯誤信息或任何問題,請及時聯系我們,我們將在第一時間刪除或更正。站長郵箱(190277521@qq.com)本站是非贏利網站,本網站鄭重提醒注冊用戶:請在轉載、上載或者下載有關作品時務必尊重該作品的版權、著作權;如果您發現有您未署名的作品,請立即和我們聯系,我們會在第一時間加上您的署名或作相關處理。 轉載請注明出處:http://www.ks-zhong.com/article/a706092174868554766.html

    分享:
    掃描分享到社交APP
    發表列表
    請登錄后評論...
    游客 游客
    此處應有掌聲~
    評論列表
    • 徐穎堃
      2023年04月15日 07:16:08
      想學習一下寫作技巧,來到這里,看完這篇文章,真的很開心~
    x

    注冊

    已經有帳號?
     1698869152  1698869152  1698869152  1698869152  1698869152  1698869152  1698869152  1698869152  1698869152  1698869152 
    五月婷婷综合