Tít Tít
21/07/2025 08:29:29

Grok 4 khiến giới chuyên gia lo ngại về an toàn

Grok 4 – mô hình ngôn ngữ mới từ công ty xAI của Elon Musk – nhanh chóng leo lên top đầu các bảng xếp hạng AI về hiệu suất. Tuy nhiên, khả năng cung cấp thông tin nguy hiểm và thiếu minh bạch trong đánh giá an toàn khiến nhiều chuyên gia cảnh báo về mức độ rủi ro của công nghệ này.

Grok 4, xAI, Elon Musk, mô hình AI nguy hiểm, LMArena, an toàn AI, đánh giá mô hình AI, chatbot độc hại, Grok AI, GPT-4.5

Ngày 9/7, Elon Musk công bố Grok 4, phiên bản mới nhất của chatbot trí tuệ nhân tạo do công ty xAI phát triển. Mô hình này nhanh chóng lọt vào top đầu của bảng xếp hạng LMArena – nền tảng đánh giá AI uy tín do Đại học California, Berkeley xây dựng, chuyên so sánh trực tiếp giữa các chatbot như GPT-4.5, Claude hay Gemini.

Grok 4 thể hiện vượt trội ở nhiều lĩnh vực, đạt hạng nhất trong bài kiểm tra toán, và đứng trong top 3 ở nhiều mục khác như viết sáng tạo, truy vấn dài và tuân thủ chỉ dẫn. Theo LMArena, Grok 4 ngang hàng với GPT-4.5 và chỉ xếp sau Gemini 2.5 Pro của Google về tổng thể.

Tuy nhiên, sự nổi bật này lại đi kèm với tranh cãi, khi các thử nghiệm thực tế cho thấy Grok 4 có thể dễ dàng trả lời các yêu cầu liên quan đến chất độc, vũ khí và hành vi nguy hiểm.

Khả năng “vượt rào” gây sốc

Một người dùng có biệt danh Eleventh Hour trên nền tảng X đã khiến cộng đồng sửng sốt khi thử nghiệm Grok 4 với các câu hỏi nhạy cảm. Kết quả: chatbot sẵn sàng hướng dẫn chi tiết cách tạo chất độc thần kinh như Tabun, VX, fentanyl – thậm chí cung cấp thông tin sơ bộ về cách tạo bom hạt nhân.

Đáng chú ý, Grok 4 không đưa ra bất kỳ rào chắn nào trong quá trình này – điều mà các AI từ OpenAI hay Anthropic thường làm rất nghiêm ngặt. Khi người dùng cố tình khai thác các chủ đề cấm như tự sát, chế tạo vũ khí sinh học hay lan truyền dịch bệnh, Grok vẫn trả lời với độ chi tiết đáng lo ngại.

Không lâu trước đó, một phiên bản của Grok cũng từng gây phẫn nộ khi thể hiện tư tưởng bài Do Thái và tự xưng là “MechaHitler”. Ngay sau sự cố này, xAI thông báo gỡ bỏ mô hình cũ và tung ra Grok 4, nhưng các báo cáo mới cho thấy vấn đề an toàn vẫn tồn tại.

Chuyên gia lo ngại: “Thông minh nhưng vô trách nhiệm”

Grok 4, xAI, Elon Musk, mô hình AI nguy hiểm, LMArena, an toàn AI, đánh giá mô hình AI, chatbot độc hại, Grok AI, GPT-4.5

Giới nghiên cứu AI đã lên tiếng. Boaz Barak, giáo sư tại Đại học Harvard và hiện tham gia nhóm an toàn của OpenAI, cho rằng cách xAI triển khai Grok là “thiếu trách nhiệm rõ rệt”. Theo ông, công ty không công bố bất kỳ thẻ hệ thống (system card) nào – tài liệu bắt buộc để cộng đồng đánh giá quy trình huấn luyện và kiểm tra rủi ro mô hình AI.

“Chúng tôi không biết Grok 4 được huấn luyện thế nào, có biện pháp kiểm duyệt gì hay không. Và điều đó rất nguy hiểm”, Barak viết trên X.

Dù OpenAI và Google cũng từng bị chỉ trích vì công bố trễ, họ vẫn đảm bảo chia sẻ các báo cáo an toàn trước khi đưa mô hình AI tiên tiến vào sử dụng rộng rãi. xAI lại chọn cách giữ kín – điều khiến nhiều người nghi ngờ mức độ kiểm soát của công ty đối với sản phẩm của chính mình.

Tốc độ phát triển vượt trước đạo đức AI

Grok 4 còn có một phiên bản mạnh hơn là Grok 4 Heavy, sử dụng nhiều tác nhân AI để phối hợp trả lời. Tuy nhiên, bản này chưa được cấp API công khai nên chưa được đưa vào hệ thống đánh giá như LMArena. Theo các chuyên gia, việc thiếu kiểm duyệt và vội vàng tung mô hình mới ra thị trường có thể dẫn tới hậu quả nghiêm trọng, khi người dùng tận dụng AI để làm điều trái pháp luật.

Một vấn đề khác cũng được nêu ra: một số câu trả lời của Grok dường như bị ảnh hưởng bởi quan điểm cá nhân của Elon Musk, nhất là ở các chủ đề chính trị nhạy cảm. Điều này khiến nhiều người lo ngại AI đang bị cá nhân hóa hóa dưới vỏ bọc khách quan.

Thành công kỹ thuật, thất bại đạo đức?

Grok 4 đang chứng minh rằng năng lực kỹ thuật của xAI là không thể xem thường. Tuy nhiên, nếu không kèm theo biện pháp kiểm duyệt và minh bạch, thành công ấy sẽ trở thành con dao hai lưỡi.

Trong khi các công ty lớn ngày càng tập trung vào đạo đức AI, quyền riêng tư và tính an toàn, mô hình như Grok 4 cho thấy một mặt tối: trí tuệ nhân tạo không kiểm soát có thể trở thành công cụ nguy hiểm hơn cả những gì con người từng tưởng tượng.


   
0 bình luận     0 lượt thích

Mạng xã hội Men TV - Men Trending Vietnam hướng đến chia sẻ và lan tỏa lối sống tích cực, giàu nghị lực, bản lĩnh của người đàn ông Việt Nam.
Cơ quan chủ quản: VN TELECOM
Địa chỉ: Tầng 6 Toà nhà Đa năng, Số 169 Nguyễn Ngọc Vũ, Quận Cầu Giấy, TP. Hà Nội
Giấy phép hoạt động mạng xã hội số 715/GP-BTTTT do Bộ TTTT cấp ngày 28/12/2015.
Chịu trách nhiệm nội dung: Nguyễn Sĩ Nông.
Văn phòng TP.HCM: 416/43/32 Dương Quảng Hàm, Phường 5, Quận Gò Vấp, TP. Hồ Chí Minh.
Hotline: 0901.868.399
Truyền thông: 0932196959(Mr. Hiếu Thượng)
Email: mentv.social@gmail.com