財聯(lián)社4月20日訊(編輯 馬蘭)過去美國人在谷歌上問診,中國人在百度上問診,現(xiàn)在,更多人開始在ChatGPT上問診。
雖然OpenAI研發(fā)ChatGPT時志不在此,但顧客才是上帝。隨著ChatGPT被更多“上帝”拿來充當醫(yī)療顧問,OpenAI也只能不斷重復(fù)對外宣稱,永遠不要使用語言模型來為嚴重的醫(yī)療狀況提供診斷或治療服務(wù)。
然而,ChatGPT越來越人性化的回答,很多時候充當起“解語花”的作用。這一點對需求心理咨詢的患者來說,尤其有誘惑力。
而脫離開OpenAI這個創(chuàng)造者,ChatGPT本身對扮演“赤腳醫(yī)生”一事的看法又十分矛盾。
用戶Milo Van Slyck爆料,他在咨詢變性人問題時,插空詢問ChatGPT如何看待其醫(yī)療角色。ChatGPT一方面回答,在線資源或許有幫助,但其不能替代專業(yè)的意見。另一方面,這個人工智能又稱,話雖如此,如果Van Slyck有任何具體問題或疑慮,它很樂意解答。
多年來一直接受人類咨詢師輔導(dǎo)的Van Slyck已經(jīng)倒戈,他表示會繼續(xù)和人類治療師會面,但和ChatGPT聊私人話題顯然更加自在。
AI的道德陷阱
早在1960年代,就已經(jīng)有人用聊天機器人代替人類咨詢師,在醫(yī)療領(lǐng)域治療病人。麻省理工學院教授Joseph Weizenbaum研發(fā)的Eliza就是一款模仿人類治療師的機器人。
此后,Woebot、Wysa等聊天機器人也在醫(yī)療領(lǐng)域進行嘗試,并在心理健康方面持續(xù)深耕。這些機器人的好處是,永遠不會感到疲倦,也不會被病人情緒影響,而且成本不高。
但世界上不可能出現(xiàn)十全十美的東西。諸如ChatGPT一類的新模型并非專門用于治療的技術(shù),其引用的很多信息就可能暗藏陷阱。
比如,這種人工智能目前沒有被設(shè)定必須要遵守更加嚴格的、適用于醫(yī)療方面的道德和法律準則。
此外,ChatGPT沒有自己的“病歷本”。這就可能導(dǎo)致患者在咨詢時不得不重復(fù)描述自己過去的病情,如若不然,ChatGPT很可能不僅無法提供幫助,甚至會因為過于胡說八道而讓病人更加“暴躁”。
因此,堪薩斯大學的教授和臨床心理學專家Stephen Ilardi警告,把ChatGPT當作醫(yī)生有點兒戲,其被應(yīng)用于嚴重精神疾病治療時會產(chǎn)生巨大的風險。
但他也認為,如果提供正確的指引,ChatGPT之類的人工智能顯然可以在心理健康服務(wù)供不應(yīng)求的時候發(fā)揮作用。
人工智能公司Hugging Face的首席道德科學家Margaret Mitchell也支持這一觀點,提出人工智能可以在接聽更多危機求助的熱線電話上幫忙。
OpenAI的道德陷阱
ChatGPT道德感天生薄弱,而Mitchell本人對OpenAI的道德感也有懷疑。
事實上,OpenAI會審查用戶與人工智能的對話,并將這些應(yīng)用于機器訓練。對于那些向OpenAI傾吐私密煩惱的用戶來說,隱私泄露很可能會加深他們的痛苦。
今年3月,部分ChatGPT用戶的對話內(nèi)容被泄露,導(dǎo)致其他用戶可以看到聊天內(nèi)容,OpenAI因此緊急關(guān)閉ChatGPT。而這還可能只是用戶隱私事故中屬于最輕量級的。
根據(jù)使用條例,ChatGPT用戶的賬戶信息在刪除申請后,仍將保留至多4個星期。
有些人擔憂隱私問題,而有些人則是覺得向機器人尋求心理安慰極其別扭。用戶Aaron Lawson就指出,雖然ChatGPT的回答很人性化,但它畢竟不是真人,因此他很難配合ChatGPT進行治療步驟。
對此,Stability AI的創(chuàng)始人兼首席執(zhí)行官Emad Mostaque表示,ChatGPT確實會提供很好、很合理的建議,但不會替代人類醫(yī)生的治療,充其量是在找不到人交談時候的一個替代品。