Báo cáo do Time thu thập được có tên Kế hoạch hành động nhằm tăng cường sự an toàn và bảo mật đối với AI tiên tiến, trong đó đề xuất một loạt hành động và chính sách sâu rộng, chưa từng có về trí tuệ nhân tạo. Nếu được ban hành, chúng có thể sẽ thay đổi hoàn toàn ngành công nghiệp AI.
"Sự phát triển AI tiên tiến đặt ra những rủi ro cấp bách và ngày càng tăng đối với an ninh quốc gia", phần mở đầu báo cáo có đoạn. "Sự trỗi dậy của AI tiên tiến và siêu trí tuệ nhân tạo AGI có khả năng gây mất ổn định an ninh toàn cầu, theo những cách khiến mọi người gợi nhớ đến việc sử dụng vũ khí hạt nhân".
Cụ thể, báo cáo khuyến nghị Quốc hội Mỹ nên coi việc đào tạo các mô hình AI chứa nhiều hơn mức sức mạnh tính toán cụ thể là bất hợp pháp, tức cần xây dựng ngưỡng sức mạnh cho công cụ trí tuệ nhân tạo, được kiểm soát bởi một cơ quan chuyên trách về AI của liên bang. Cơ quan này sẽ được phép yêu cầu các công ty AI phải xin phép chính phủ để đào tạo và triển khai mô hình mới theo ngưỡng đề ra.
Việc kiểm soát đào tạo hệ thống AI tiên tiến trên một ngưỡng nhất định sẽ giúp "điều tiết" việc cạnh tranh giữa các nhà phát triển AI, từ đó góp phần làm giảm tốc độ cả về chạy đua sản xuất phần cứng lẫn phần mềm. Theo thời gian, cơ quan kiểm soát AI liên bang có thể nâng ngưỡng và cho phép đào tạo hệ thống AI tốt hơn khi "đã cảm thấy đủ an toàn", hoặc hạ ngưỡng khi "phát hiện mối nguy" trong các mô hình AI.
Bên cạnh đó, báo cáo đề xuất nhà chức trách nên "khẩn trương" xem xét việc kiểm soát xuất bản nội dung hoặc hoạt động nội bộ bên trong mô hình AI mạnh mẽ. Việc vi phạm có thể bị phạt tù. Ngoài ra, chính phủ nên thắt chặt hơn biện pháp kiểm soát sản xuất và xuất khẩu chip AI, đồng thời hướng nguồn tài trợ liên bang vào nghiên cứu điều chỉnh AI tiên tiến trở nên an toàn hơn.
Theo hồ sơ, báo cáo được thực hiện bởi Gladstone AI - công ty có bốn nhân viên, chuyên tổ chức các cuộc họp giao ban kỹ thuật về AI cho nhân viên chính phủ - do Bộ Ngoại giao Mỹ ủy quyền vào tháng 11/2022 như một phần của hợp đồng liên bang trị giá 250.000 USD. Báo cáo được gửi dưới dạng tài liệu dài 247 trang cho Bộ Ngoại giao Mỹ ngày 26/2.
Bộ Ngoại giao Mỹ chưa đưa ra bình luận.
Cũng theo hồ sơ, ba tác giả đã tìm hiểu vấn đề bằng cách nói chuyện với hơn 200 thành viên chính phủ, chuyên gia và nhân viên tại các công ty AI hàng đầu như OpenAI, Google DeepMind, Anthropic và Meta. Kế hoạch can thiệp chi tiết được phát triển trong 13 tháng. Tuy nhiên, trang đầu tiên của báo cáo nói "các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao hoặc Chính phủ Mỹ".
Theo Greg Allen, chuyên gia của Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), đề xuất trên có thể sẽ gặp khó về mặt chính trị. "Tôi nghĩ khuyến nghị khó được chính phủ Mỹ thông qua. Trừ khi có 'cú sốc ngoại sinh' nào đó, tôi nghĩ cách tiếp cận hiện tại khó thay đổi".
AI hiện phát triển bùng nổ với nhiều mô hình có thể thực hiện các công việc mà trước đây chỉ có trong khoa học viễn tưởng. Trước vấn đề này, nhiều chuyên gia lên tiếng cảnh báo về mức độ nguy hiểm. Tháng 3 năm ngoái, hơn 1.000 người, được xem là giới tinh hoa trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.
Giữa tháng 4/2023, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.
Một tháng sau, một thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI, cũng đưa ra cảnh báo tương tự. "Giảm nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website tháng 5/2023.
Khảo sát của Đại học Stanford tháng 4/2023 cũng cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ chuyển dịch sang AGI trong tương lai gần. Có 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.
"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", CEO DeepMind Hassabis nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".