OpenAI – công ty đứng sau ChatGPT – vừa ra mắt hai mô hình trí tuệ nhân tạo mới là o3 và o4-mini, được thiết kế với khả năng suy luận vượt trội. Tuy nhiên, thay vì giảm thiểu vấn đề “nói xạo” – thuật ngữ chỉ việc AI đưa ra thông tin sai lệch hoặc bịa đặt – hai mô hình này lại khiến tỷ lệ sai sót tăng lên đáng kể so với các thế hệ trước.
Theo báo cáo kỹ thuật của OpenAI, cả o3 và o4-mini đều “nói xạo” nhiều hơn so với các mô hình suy luận đời cũ như o1, o1-mini, o3-mini, và cả GPT-4o – dòng AI truyền thống. Đây là điều khiến chính nhóm phát triển cũng chưa thể lý giải. Họ thừa nhận rằng cần thêm nghiên cứu để hiểu rõ nguyên nhân việc mô hình càng mạnh lại càng dễ sai.
Trong các bài kiểm tra nội bộ, mô hình o3 có tỷ lệ đưa ra thông tin sai lên đến 33% khi trả lời câu hỏi về người nổi tiếng trong bộ dữ liệu PersonQA. Con số này cao gấp đôi so với o1 (16%) và o3-mini (14,8%). O4-mini thậm chí còn tệ hơn khi “nói xạo” tới 48% số câu hỏi.
Một nghiên cứu độc lập của phòng thí nghiệm AI phi lợi nhuận Transluce cũng ghi nhận hiện tượng o3 bịa đặt các bước mà nó cho là đã thực hiện. Trong một ví dụ, o3 nói rằng đã chạy mã trên máy MacBook Pro 2021 và lấy kết quả để đưa vào câu trả lời – điều hoàn toàn không thể xảy ra trong môi trường thực tế của ChatGPT.
Neil Chowdhury, cựu nhân viên OpenAI và hiện là nhà nghiên cứu tại Transluce, cho rằng các kỹ thuật học tăng cường (reinforcement learning) đang được áp dụng có thể khiến những lỗi vốn được giảm thiểu trong các bước huấn luyện truyền thống bị khuếch đại trở lại.
Trong khi đó, Sarah Schwettmann – đồng sáng lập Transluce – cảnh báo rằng tỷ lệ sai lệch cao của o3 có thể làm giảm giá trị ứng dụng thực tế của nó.
Tuy vậy, không phải ai cũng bi quan. Kian Katanforoosh, giảng viên tại Đại học Stanford và CEO của startup Workera, cho biết nhóm của ông đang thử nghiệm o3 trong các quy trình lập trình và nhận thấy nó vượt trội so với nhiều đối thủ. Nhưng ông cũng thừa nhận rằng mô hình này thường tạo ra các đường link… không tồn tại.
Hiện tượng "nói xạo" trong AI đôi khi được xem là “sáng tạo ngoài khuôn khổ”, nhưng trong môi trường đòi hỏi độ chính xác cao như pháp lý, y tế hay tài chính, đây là điều không thể chấp nhận. Một giải pháp tiềm năng được nhắc đến là tích hợp khả năng tìm kiếm web, vốn đã giúp GPT-4o đạt tới 90% độ chính xác trong bài kiểm tra SimpleQA.
Phát ngôn viên OpenAI, ông Niko Felix, khẳng định công ty vẫn đang “liên tục nghiên cứu để nâng cao độ chính xác và độ tin cậy của tất cả các mô hình”.
Trong bối cảnh ngành AI đang chuyển hướng mạnh mẽ sang các mô hình suy luận để tăng hiệu suất mà không cần quá nhiều tài nguyên, vấn đề “nói xạo” ngày càng trở nên nan giải – và cũng là bài toán lớn tiếp theo cần lời giải.