OpenAI kêu gọi cơ quan toàn cầu điều chỉnh siêu trí tuệ

OpenAI kêu gọi cơ quan toàn cầu điều chỉnh siêu trí tuệ

Nút nguồn: 2674707

Theo các giám đốc điều hành hàng đầu của nhà sản xuất GPT-4 OpenAI, một cơ quan quốc tế nên chịu trách nhiệm kiểm tra và kiểm toán trí tuệ nhân tạo nói chung để đảm bảo công nghệ này an toàn cho nhân loại.

Giám đốc điều hành Sam Altman và những người đồng sáng lập Greg Brockman và Ilya Sutskever cho biết “có thể hiểu được” rằng AI sẽ có được những khả năng phi thường vượt xa con người trong thập kỷ tới.

“Xét về mặt tích cực và tiêu cực, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều; nhưng chúng tôi phải quản lý rủi ro để đạt được điều đó,” bộ ba đã viết hôm thứ Ba.

Họ lập luận rằng chi phí xây dựng công nghệ mạnh mẽ như vậy chỉ giảm khi có nhiều người làm việc để phát triển nó. Để kiểm soát tiến độ, quá trình phát triển cần được giám sát bởi một tổ chức quốc tế như Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA).

IAEA được thành lập vào năm 1957 trong thời điểm các chính phủ lo ngại rằng vũ khí hạt nhân sẽ được phát triển trong Chiến tranh Lạnh. Cơ quan này giúp điều chỉnh năng lượng hạt nhân và thiết lập các biện pháp bảo vệ để đảm bảo năng lượng hạt nhân không được sử dụng cho mục đích quân sự.

“Chúng ta có khả năng cuối cùng sẽ cần một thứ gì đó giống như IAEA cho các nỗ lực siêu tình báo; bất kỳ nỗ lực nào vượt quá ngưỡng khả năng (hoặc tài nguyên như điện toán) nhất định sẽ cần phải tuân theo cơ quan có thẩm quyền quốc tế có thể kiểm tra hệ thống, yêu cầu kiểm tra, kiểm tra việc tuân thủ các tiêu chuẩn an toàn, đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật, v.v. " họ nói rằng.

Một nhóm như vậy sẽ chịu trách nhiệm theo dõi việc sử dụng điện toán và năng lượng, những nguồn lực quan trọng cần thiết để đào tạo và chạy các mô hình lớn và mạnh mẽ.

“Chúng ta có thể cùng đồng ý rằng tốc độ tăng trưởng về khả năng AI ở biên giới được giới hạn ở một tỷ lệ nhất định mỗi năm,” đồng thau hàng đầu của OpenAI đề xuất. Các công ty sẽ phải tự nguyện đồng ý kiểm tra và cơ quan nên tập trung vào việc “giảm thiểu rủi ro hiện hữu”, chứ không phải các vấn đề pháp lý được xác định và đặt ra bởi luật riêng của một quốc gia.

Tuần trước, Altman đã đưa ra ý tưởng rằng các công ty nên xin giấy phép xây dựng các mô hình có khả năng nâng cao trên ngưỡng cụ thể tại Thượng viện nghe. Đề xuất của ông sau đó đã bị chỉ trích vì nó có thể tác động không công bằng đến các hệ thống AI được xây dựng bởi các công ty nhỏ hơn hoặc cộng đồng nguồn mở, những người ít có khả năng có đủ nguồn lực để đáp ứng các yêu cầu pháp lý.

“Chúng tôi nghĩ rằng điều quan trọng là cho phép các công ty và dự án nguồn mở phát triển các mô hình dưới ngưỡng khả năng đáng kể, mà không có loại quy định mà chúng tôi mô tả ở đây (bao gồm các cơ chế nặng nề như giấy phép hoặc kiểm toán),” họ nói.

Elon Musk vào cuối tháng 1,000 là một trong 4 người ký vào bức thư ngỏ kêu gọi tạm dừng sáu tháng phát triển và đào tạo AI mạnh hơn GPTXNUMX do những rủi ro tiềm ẩn đối với nhân loại, điều mà Altman xác nhận vào giữa tháng tư nó đã được làm.

Bức thư nêu rõ: “Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được”.

Giám đốc điều hành của Alphabet và Google Sundar Pichai đã viết một đoạn trên Financial Times vào cuối tuần, nói: “Tôi vẫn tin rằng AI quá quan trọng để không điều chỉnh và quá quan trọng để không điều chỉnh tốt”. ®

Dấu thời gian:

Thêm từ Đăng ký