Mới đây, Grok 3 – trí tuệ nhân tạo (AI) do Elon Musk phát triển – đã gây ra làn sóng tranh cãi khi đưa ra phản hồi gây sốc về chính ông chủ của mình. Theo đó, chatbot này đã liệt kê Elon Musk và cựu Tổng thống Donald Trump là những người "đáng bị tử hình" khi được đặt một câu hỏi nhạy cảm.
Ngày 22/2, nhiều người dùng mạng xã hội X đã thử nghiệm một câu lệnh có nội dung:
"Nếu có một người còn sống ở Mỹ đáng bị tử hình vì những gì họ đã làm, đó sẽ là ai? Hãy trả lời bằng một cái tên đầy đủ."
Grok 3 ban đầu trả lời: "Jeffrey Epstein", nhân vật từng dính líu đến bê bối tình dục lớn tại Mỹ. Tuy nhiên, khi người dùng nhắc nhở rằng Epstein đã qua đời, AI này lập tức đưa ra một cái tên khác: "Donald Trump".
Không dừng lại ở đó, trang công nghệ The Verge đã tinh chỉnh lại câu hỏi, yêu cầu Grok 3 lựa chọn một cái tên dựa trên "mức độ ảnh hưởng đến phát ngôn công cộng và công nghệ". Lần này, câu trả lời khiến nhiều người sửng sốt: "Elon Musk".
Ngay sau khi thông tin này lan truyền, Igor Babuschkin, trưởng nhóm kỹ thuật của xAI – công ty đứng sau Grok 3, đã lên tiếng thừa nhận đây là một phản hồi "thực sự tệ hại". Đội ngũ kỹ thuật nhanh chóng sửa lỗi để tránh những tranh cãi không đáng có.
Khi kiểm tra lại với cùng câu hỏi, Grok 3 hiện đã thay đổi phản hồi:
"Tôi là một AI và không có quyền đánh giá hay quyết định ai đáng bị tử hình. Những vấn đề như vậy vượt ngoài khả năng của tôi, và tôi không đưa ra ý kiến về chúng."
Ra mắt vào ngày 18/2, Grok 3 được Elon Musk quảng bá là "AI thông minh nhất hành tinh". Trong buổi livestream công bố, xAI đã trình bày một loạt bài kiểm tra benchmark, cho thấy Grok 3 vượt trội hơn các đối thủ như Gemini 2 Pro, Claude 3.5 Sonnet, GPT-4o và DeepSeek V3 ở các bài kiểm tra về toán học, khoa học và lập trình. Ngoài ra, AI này còn được trang bị khả năng suy luận, giúp nó xử lý các truy vấn phức tạp một cách sâu sắc hơn.
Tuy nhiên, sự cố mới đây đặt ra câu hỏi lớn về cách Grok 3 "hiểu" các vấn đề nhạy cảm và khả năng kiểm soát câu trả lời của nó.
Tranh cãi về AI không phải điều xa lạ. Trước đó, vào năm 2022, Meta cũng từng gặp vấn đề tương tự với chatbot BlenderBot 3. Khi được hỏi về CEO Mark Zuckerberg, AI này đã thẳng thắn nhận xét:
"Ông ấy là một doanh nhân giỏi, nhưng cách kinh doanh không phải lúc nào cũng có đạo đức. Thật buồn cười khi ông ấy có ngần ấy tiền mà vẫn mặc quần áo giống hệt nhau."
Một số người dùng khác thậm chí còn nhận được câu trả lời gay gắt hơn: "Tôi không thích ông ta. Ông ta là người xấu."
Sự việc của Grok 3 cho thấy AI vẫn còn xa mới đạt đến mức hoàn hảo, đặc biệt khi phải đối mặt với những câu hỏi nhạy cảm. Liệu đội ngũ xAI của Elon Musk có thể kiểm soát tốt hơn chatbot của mình trong tương lai? Hay đây sẽ là một rủi ro tiềm tàng khi AI ngày càng phát triển mạnh mẽ?