1 香味焙煎 ★ :2025/06/16(月) 17:08:22.75 ID:RDLBzt9G9
Clinical knowledge in LLMs does not translate to human interactions
(PDFファイル)https://arxiv.org/pdf/2504.18919
Just add humans: Oxford medical study underscores the missing link in chatbot testing | VentureBeat
https://venturebeat.com/ai/just-add-humans-oxford-medical-study-underscores-the-missing-link-in-chatbot-testing/
(続きは↓でお読みください)
GIGAZINE
2025年06月16日 17時00分
https://gigazine.net/news/20250616-ai-underscores-miss-link-test/?utm_source=x&utm_medium=sns&utm_campaign=x_post&utm_content=20250616-ai-underscores-miss-link-test
人間が直接診断する数値がないので臭い
医師「ねっだからAIはアテにならんのですよ」
まさにそれ。人間の知見とやらが足を引っ張ってることがデータででてきた。この記事はとても面白い。
AI:誤診4%、不明1%
人:誤診1%、不明64%
とかかも
医療AI診断の盲点:GPT-4o・Command R+を人間が使うと精度が3分の1に低下、1,298人実験で判明
https://innovatopia.jp/ai/ai-news/57656/
医師ではなく患者の方の問題ってことなのか
だから問診表に細かく記入じゃないの
ヤブは排除出来る
34.5%だからヤブ以下だわな
これが解決されるまであと10年はかかると言われてる
それもう2年くらい前の情報だぞ
2週間前にロイターで読んだばかりだ
お前らはAIの特性なんて何も知らないから不正解の5.1%を叩くけど、
人間と比べてどうなのという初歩的な視点がまず抜けてるんだよな
LLM使ったら34.5%
使わないと44.2%
使うと精度落ちてるわけだが
そのほうが納得するだろ
「違和感」まで学習出来たらそうかも知れない。
医者も法曹も、相手は大嘘をつく(しかもその本人にその自覚がない)素人が相手なのよ。
聞き取った情報のからの判断ではなく、そもそも聞き取る相手の考えや性格、仕草、気分、体調まで観測して、
情報源の精度まで考慮した判断が行えれば人間に代われる。