Người đàn ông Anh ngộ độc nghiêm trọng vì nghe lời khuyên từ ChatGPT

Ca bệnh hiếm gặp này được công bố trên tạp chí y khoa Annals of Internal Medicine, cảnh báo về rủi ro khi sử dụng AI thay thế tư vấn y tế chuyên nghiệp.

Một bệnh nhân 60 tuổi tại Anh đã phải nhập viện trong tình trạng ngộ độc bromide sau khi thay thế hoàn toàn muối ăn bằng sodium bromide theo gợi ý từ ChatGPT.

Ban đầu, người đàn ông này tìm cách loại bỏ muối thông thường khỏi chế độ ăn vì lo ngại ảnh hưởng sức khỏe. Sau khi tham khảo ChatGPT, ông mua sodium bromide - hợp chất từng dùng làm thuốc an thần đầu thế kỷ 20 - và sử dụng thay thế muối ăn hàng ngày. Chỉ sau thời gian ngắn, ông xuất hiện các triệu chứng nghiêm trọng.

Các bác sĩ ghi nhận bệnh nhân có biểu hiện hoang tưởng, ảo giác, mất ngủ và mất kiểm soát vận động. Tình trạng trở nặng đến mức ông phải được điều trị tâm thần bắt buộc sau khi cố gắng bỏ trốn khỏi bệnh viện. Xét nghiệm máu xác định nồng độ bromide cao gấp 9 lần ngưỡng an toàn, chẩn đoán ngộ độc bromide (bromism).

Đáng chú ý, khi các nhà nghiên cứu kiểm tra lại ChatGPT, công cụ này vẫn liệt kê sodium bromide như một lựa chọn thay thế muối, dù có thêm cảnh báo "tùy ngữ cảnh".

chatgpt-2830-1675618917422720736144
Ảnh minh họa.

Hiện tại, câu trả lời đã được cập nhật với khuyến cáo rõ ràng hơn về độ an toàn. OpenAI - công ty phát triển ChatGPT - cũng nhấn mạnh đây không phải công cụ chẩn đoán y tế.

Sự việc làm dấy lên lo ngại về xu hướng ngày càng nhiều người tìm kiếm lời khuyên sức khỏe từ AI. Thống kê cho thấy 1/6 người Mỹ và 1/5 bác sĩ Anh từng sử dụng ChatGPT cho mục đích y tế. Các chuyên gia cảnh báo AI có thể đưa ra thông tin thiếu ngữ cảnh hoặc không chính xác, đặc biệt trong lĩnh vực y tế nhạy cảm.

Trường hợp này nhấn mạnh tầm quan trọng của việc tham vấn chuyên gia y tế thay vì phụ thuộc vào công nghệ. Các bác sĩ khuyến cáo dù natri clorua có thể ảnh hưởng huyết áp, nhưng việc thay thế bằng các hợp chất khác cần được nghiên cứu kỹ lưỡng và chỉ thực hiện dưới sự giám sát y tế.

Bình luận