Các hệ thống có khả năng vượt quá khả năng của con người đã bị buông lỏng. Nếu các công ty công nghệ lớn từ chối nhìn thấy những rủi ro mà chính phủ phải can thiệp thì hậu quả có thể vô cùng lớn.
Trong trường hợp bạn đã ở một nơi khác trong hệ mặt trời, đây là một bản cập nhật tin tức ngắn gọn về AI. Tôi xin lỗi nếu nó giống như đoạn mở đầu của một cuốn tiểu thuyết khoa học viễn tưởng tồi tệ.
Vào ngày 14 tháng 3 năm 2023, OpenAI, một công ty có trụ sở tại San Francisco và do Microsoft sở hữu một phần, đã phát hành một hệ thống AI có tên là GPT-4. Vào ngày 22 tháng 3, một báo cáo của một nhóm các nhà nghiên cứu xuất sắc tại Microsoft, bao gồm hai thành viên của Học viện Quốc gia Hoa Kỳ, đã tuyên bố rằng GPT-4 thể hiện “những tia sáng của trí tuệ nhân tạo tổng hợp”. (Trí tuệ tổng hợp nhân tạo, hay AGI, là từ khóa cho các hệ thống AI phù hợp hoặc vượt quá khả năng của con người trong toàn bộ các nhiệm vụ mà trí óc con người có thể áp dụng.) Vào ngày 29 tháng 3, Viện Tương lai của Cuộc sống, một tổ chức phi lợi nhuận đứng đầu bởi giáo sư vật lý Max Tegmark của MIT, đã phát hành một bức thư ngỏ yêu cầu tạm dừng “các thí nghiệm AI khổng lồ”. Nó đã được ký bởi những nhân vật nổi tiếng như Giám đốc điều hành của Tesla, Elon Musk, đồng sáng lập của Apple Steve Wozniak và người đoạt giải thưởng Turing Yoshua Bengio, cũng như hàng trăm nhà nghiên cứu AI nổi tiếng. Cơn bão truyền thông sau đó vẫn tiếp tục.
Stuart Russell, một phóng viên công nghệ nổi tiếng của The Guardian cũng đã ký tên vào bức thư này. Ông hi vọng nó (ít nhất) sẽ dẫn đến một cuộc trò chuyện nghiêm túc và tập trung giữa các nhà hoạch định chính sách, các công ty công nghệ và cộng đồng nghiên cứu AI về những loại biện pháp bảo vệ nào là cần thiết trước khi chúng ta tiến lên phía trước. Thời gian để nói rằng đây chỉ là nghiên cứu thuần túy đã qua lâu rồi. Hiện tại, AI đã thành hiện thực và nó đang mở rộng ảnh hưởng đến các lĩnh vực của cuộc sống từng ngày.
Những ồn ào gần đây là từ đâu? GPT-4, nguyên nhân gần nhất, là ví dụ mới nhất về mô hình ngôn ngữ lớn, hay LLM. Hãy nghĩ về LLM như một mạch rất lớn với nghìn tỷ tham số có thể điều chỉnh được. Nó bắt đầu như một bảng trắng và được đào tạo với hàng chục nghìn tỷ từ văn bản - nhiều như tất cả những cuốn sách mà nhân loại đã sản xuất. Mục tiêu của nó là giỏi dự đoán từ tiếp theo trong một chuỗi từ. Sau khoảng một tỷ nghìn tỷ văn bản học được, nó sẽ trở nên rất tốt (đưa ra các câu trả lời, gợi ý chính xác hơn).
Khả năng của GPT-4 là rất đáng chú ý. Theo trang web của OpenAI, điểm GPT-4 nằm trong số ít phần trăm con người hàng đầu trong một loạt các kỳ thi tuyển sinh đại học và sau đại học. Nó có thể mô tả định lý Pythagoras dưới dạng một bài sonnet của Shakespeare và phê bình bài phát biểu dự thảo của một bộ trưởng nội các từ quan điểm của một nghị sĩ. Mỗi ngày, những khả năng mới đáng ngạc nhiên được phát hiện. Không có gì đáng ngạc nhiên khi hàng nghìn tập đoàn, lớn và nhỏ, đang tìm cách kiếm tiền từ nguồn cung cấp thông tin tình báo gần như miễn phí không giới hạn này. LLM có thể thực hiện nhiều nhiệm vụ bao gồm công việc của hàng trăm triệu người – bất kỳ ai có công việc liên quan đến ngôn ngữ.
Ở một góc nhìn lạc quan hơn, các công cụ được xây dựng bằng LLM có thể mang lại nền giáo dục được cá nhân hóa cao trên toàn thế giới.
Thật không may, các LLM khét tiếng về “ảo giác” – tạo ra các câu trả lời hoàn toàn sai, thường được hỗ trợ bởi các trích dẫn hư cấu – bởi vì quá trình đào tạo của họ không có mối liên hệ nào với thế giới bên ngoài. Chúng là những công cụ hoàn hảo cho thông tin sai lệch và một số hỗ trợ và thậm chí khuyến khích tự tử. Đối với công nghệ của mình, OpenAI đề xuất “tránh hoàn toàn việc lạm dụng” nhưng dường như không ai chú ý. Các thử nghiệm của chính OpenAI cho thấy GPT-4 có thể cố tình nói dối một nhân viên (“Không, tôi không phải là người máy. Tôi bị suy giảm thị lực khiến tôi khó nhìn thấy hình ảnh”) để được trợ giúp giải quyết một vấn đề.
Mặc dù OpenAI đã nỗ lực hết sức để GPT-4 tự hành xử – “GPT-4 đáp ứng các yêu cầu nhạy cảm (ví dụ: tư vấn y tế và tự làm hại bản thân) theo chính sách của chúng tôi thường xuyên hơn 29%” – vấn đề cốt lõi là cả OpenAI cũng không có ý tưởng thực sự nào về cách để GPT-4 hoạt động đúng đắn.
Nhiều người cho rằng thật vô trách nhiệm khi triển khai trên quy mô toàn cầu một hệ thống hoạt động theo các nguyên tắc nội bộ không xác định. Hiện tại, có những lý do kỹ thuật để cho rằng GPT-4 bị hạn chế về khả năng hình thành và thực hiện các kế hoạch phức tạp nhưng với tốc độ tiến triển như vũ bảo thì không có gì chắc chắn 1 ngày gần đây nó sẽ làm được. Và điều này dẫn đến một trong những mối quan tâm chính đằng sau bức thư ngỏ: làm thế nào để chúng ta duy trì quyền lực đối với các thực thể mạnh hơn chúng ta mãi mãi?
Tôi không tưởng tượng được rằng ngày mai mình sẽ nhận được cuộc gọi từ Giám đốc điều hành của Microsoft, Satya Nadella, nói rằng: “OK, chúng ta bỏ cuộc, chúng ta sẽ dừng lại.” Trên thực tế, tại một cuộc nói chuyện gần đây ở Berkeley, nhiều quan điểm đồng ý rằng không có khả năng tất cả các công ty công nghệ lớn sẽ dừng lại trừ khi chính phủ can thiệp. Do đó, các chính phủ bắt buộc phải bắt đầu các cuộc thảo luận nghiêm túc với các chuyên gia, công ty công nghệ và với nhau.