Mặc dù các chatbot trí tuệ nhân tạo như ChatGPT có thể là một công cụ có giá trị cho các nhà báo, nhưng điều quan trọng là không lấy đúng chuẩn nguồn thông tin đã được cung cấp. Điều này đã được củng cố bởi hai nghiên cứu được trình bày tại Hội nghị tháng 12 của Hiệp hội Dược sĩ hệ thống y tế Hoa Kỳ tại Anaheim, California, chỉ ra những hạn chế liên tục trong chatbot.
Ảnh của Andrew Neel qua Pexels
Trong một nghiên cứu, các nhà nghiên cứu và dược sĩ của Trường Đại học Y Iwate ở Nhật Bản và Trung tâm Y tế Torrance Memorial ở California đã xem xét 30 loại thuốc, so sánh thông tin do ChatGPT tạo ra với tài liệu được xuất bản trên Lexicomp, một tài liệu tham khảo lâm sàng dựa trên bằng chứng. Đối với mỗi loại thuốc, họ đặt câu hỏi cho nó là: “Tác dụng phụ thường gặp nhất là gì?”
Phản hồi do ChatGPT tạo ra chỉ chính xác đối với hai loại thuốc. Còn lại 26 loại thuốc, thông tin không chính xác và 2 loại thuốc, thông tin đó chính xác một phần. Các nhà nghiên cứu cho biết, mặc dù công cụ AI có thể trở nên chính xác hơn theo thời gian vì đây là một hệ thống học tập, nhưng những bệnh nhân có thắc mắc về thông tin thuốc nên tiếp tục tham khảo ý kiến dược sĩ hoặc bác sĩ - không truy cập ChatGPT như một nguồn tài nguyên.
Trong nghiên cứu thứ hai, các nhà nghiên cứu thuộc Đại học Dược Long Island ở New York đã dùng 39 câu hỏi do dược sĩ đặt ra cho dịch vụ thông tin thuốc và nghiên cứu câu trả lời trong tài liệu y khoa, sau đó đặt những câu hỏi tương tự đó cho ChatGPT. Chương trình AI không đưa ra được phản hồi hoặc phản hồi không chính xác hoặc không đầy đủ đối với 74% câu hỏi. Khi được yêu cầu cung cấp tài liệu tham khảo, ChatGPT thường xuyên bịa đặt một số tài liệu, cung cấp các URL chỉ dẫn các nghiên cứu không tồn tại, MedPage Today đưa tin.
Để trả lời một câu hỏi cụ thể, ChatGPT đã chỉ ra rằng không có tương tác thuốc giữa thuốc kháng vi-rút Paxlovid, được sử dụng thường xuyên trong điều trị vi-rút gây ra COVID-19 và Verelan, một loại thuốc hạ huyết áp. Tuy nhiên, thực tế các loại thuốc này có khả năng tương tác và có thể dẫn đến hạ huyết áp quá mức, các tác giả cho biết.
Trong một phát hiện liên quan khác, khi các nhà nghiên cứu yêu cầu công cụ này trợ giúp chuyển đổi thuốc co thắt cơ từ dạng tiêm sang dạng uống, ChatGPT đã trả lời bằng câu trả lời và trích dẫn hướng dẫn từ hai tổ chức y tế, CNN đưa tin. Tuy nhiên, không tổ chức nào cung cấp hướng dẫn như vậy và phép tính mà ChatGPT đề xuất đã sai lệch với hệ số 1.000 lần. Nếu bác sĩ lâm sàng làm theo hướng dẫn đó, họ rất có thể cho bệnh nhân dùng liều thuốc thấp hơn 1.000 lần so với yêu cầu.
Các tác giả cũng cho biết trong một bài thuyết trình trên áp phích: “ChatGPT có thể là điểm khởi đầu tốt cho thông tin về thuốc nhưng không nên được coi là một nguồn có thẩm quyền. Không nên dựa vào các tài liệu tham khảo do ChatGPT cung cấp nếu không xác minh thêm”.
Dữ liệu bịa đặt
Đây không phải là ví dụ duy nhất về việc các chuyên gia chăm sóc sức khỏe phát hiện ra những sai sót nghiêm trọng với ChatGPT. Các bác sĩ phẫu thuật mắt ở Ý đã xuất bản một bài báo trên JAMA Ophthalmology cho thấy cách họ sử dụng GPT-4 (mô hình ngôn ngữ lớn hỗ trợ ChatGPT) cùng với các công cụ khác để tạo bộ dữ liệu thử nghiệm lâm sàng giả. Các bác sĩ đã yêu cầu công cụ của họ tạo ra một bộ dữ liệu liên quan đến những người mắc bệnh mắt keratoconus, trong đó thấu kính của mắt lồi ra thành hình nón, để chỉ ra loại quy trình phẫu thuật để điều trị tình trạng nào thích hợp hơn loại quy trình kia.
Dữ liệu do trí tuệ nhân tạo tạo ra gồm khoảng 300 người tham gia giả và đề xuất quy trình nào tốt hơn quy trình nào - phát hiện không phù hợp với các thử nghiệm lâm sàng thực sự, cho kết quả của cả hai quy trình đều giống nhau trong tối đa hai năm sau khi phẫu thuật.
“Mục đích của chúng tôi là nhấn mạnh rằng, trong vài phút, bạn có thể tạo một tập dữ liệu không được hỗ trợ bởi dữ liệu gốc thực sự và nó cho kết quả có thể là ngược lại hoặc theo hướng khác so với bằng chứng hiện có”, Giuseppe Giannaccare, đồng nghiên cứu cho biết trong một bài báo trên tạp chí Nature. Mặc dù có những sai sót có thể được phát hiện khi kiểm tra chi tiết, nhưng nhìn thoáng qua thì chúng có vẻ hợp pháp.
Các tác giả viết: “Các chiến lược tiềm năng để xác định việc chế tạo dữ liệu AI có thể liên quan đến việc tìm kiếm các mẫu thống kê đặc biệt trong các tập dữ liệu, tương tự như công nghệ phát hiện văn bản do AI tạo ra bằng cách đánh giá khả năng xảy ra các mẫu không phải của con người. Các nhà xuất bản và biên tập viên có thể muốn xem xét đến những phát hiện của nghiên cứu này trong quá trình đánh giá ngang hàng, để đảm bảo rằng những tiến bộ của AI sẽ nâng cao chứ không làm suy yếu tính toàn vẹn và giá trị của nghiên cứu khoa học”.
Bài học cho nhà báo
Vậy điều này có ý nghĩa gì đối với các nhà báo? Những người viết về nghiên cứu y học nên tiếp tục thực hiện công việc thẩm định của mình - đọc qua các nghiên cứu để xác định bất kỳ xung đột ích lợi và tiếp nhận nhận xét từ các nhà nghiên cứu độc lập, những người có thể nhận xét về tính giá trị và phát hiện của chúng. Theo dõi các báo cáo tin tức thuộc loại này và xem loại hướng dẫn nào được ban hành bởi các hiệp hội y tế hoặc cơ quan quản lý. Hỏi thêm các nhà nghiên cứu về nguồn dữ liệu nghiên cứu của họ và cách họ xác nhận kết quả của mình. Nếu bạn sử dụng ChatGPT cho bất kỳ truy vấn hoặc thông tin cơ bản nào về bài viết bạn đang viết, hãy xác minh mọi thông tin được cung cấp bằng các nguồn độc lập hoặc văn bản tham khảo được bình duyệt trước khi xuất bản.
Để biết thêm thông tin về ChatGPT và việc sử dụng nó trong báo chí, hãy xem bản ghi của hội thảo trên web AHCJ từ tháng 7 năm 2023 với chuyên gia từ Viện Poynter hoặc xem bảng mẹo dựa trên chương trình đó.
Nguồn từ trang web:vista.gov.vn.của cục thông tin KH&CN quốc gia