Các chuyên gia cảnh báo về sự tuyệt chủng của AI nếu không hành động ngay bây giờ

Các chuyên gia cảnh báo về sự tuyệt chủng của AI nếu không hành động ngay bây giờ

Nút nguồn: 2688105

Có một bức thư ngỏ đầy bi kịch khác về việc AI thực hiện các vòng. Lần này, rất nhiều nhà lãnh đạo công nghệ, những người nổi tiếng về ML và thậm chí một số người nổi tiếng đã ký kết để thúc giục thế giới xem xét nghiêm túc hơn các mối đe dọa cấp độ tuyệt chủng do trí tuệ nhân tạo gây ra. 

Một tuyên bố phù hợp hơn, thông điệp từ Trung tâm An toàn AI (CAIS) được ký bởi những cá nhân như nhà tiên phong AI Geoffrey Hinton, Giám đốc điều hành OpenAI Sam Altman, chuyên gia mã hóa Martin Hellman, CTO Microsoft Kevin Scott, và những người khác là một câu tường thuật đơn dự đoán ngày tận thế nếu nó không được chú ý:

“Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.” 

Tại sao quá ngắn gọn? Mục tiêu là “để chứng minh liên minh rộng lớn và ngày càng tăng của các nhà khoa học AI, các nhà lãnh đạo công nghệ và giáo sư đang lo ngại về nguy cơ tuyệt chủng AI. Giám đốc CAIS Dan Hendrycks nói: Đăng ký.

CAIS không đề cập đến trí tuệ tổng quát nhân tạo (AGI) trong danh sách rủi ro AI, chúng tôi lưu ý. Và các mô hình thế hệ hiện tại, chẳng hạn như ChatGPT, không phải là mối đe dọa tận thế đối với nhân loại, Hendrycks nói với chúng tôi. Cảnh báo tuần này là về những gì có thể xảy ra tiếp theo.

Hendrycks cho biết: “Các loại mối đe dọa thảm khốc mà tuyên bố này đề cập đến có liên quan đến các hệ thống AI tiên tiến trong tương lai. Ông nói thêm rằng những tiến bộ cần thiết để đạt đến mức độ “mối đe dọa tận thế” có thể chỉ cần từ hai đến 10 năm nữa chứ không phải vài thập kỷ. “Chúng ta cần chuẩn bị ngay bây giờ. Tuy nhiên, các hệ thống AI có thể gây ra hậu quả thảm khốc không nhất thiết phải là AGI,” ông nói. 

Bởi vì con người dù sao cũng hoàn toàn bình yên

Một như vậy mối đe dọa là vũ khí hóa hoặc ý tưởng rằng ai đó có thể tái sử dụng AI nhân từ để có sức hủy diệt cao, chẳng hạn như sử dụng bot khám phá thuốc để phát triển vũ khí hóa học hoặc sinh học hoặc sử dụng học tăng cường để chiến đấu dựa trên máy móc. Điều đó nói rằng, Con người đã hoàn toàn có khả năng sản xuất những loại vũ khí đó, có thể hạ gục một người, khu phố, thành phố hoặc quốc gia.

Chúng tôi đã cảnh báo rằng AI cũng có thể được đào tạo để theo đuổi các mục tiêu của mình mà không quan tâm đến các giá trị cá nhân hay xã hội. Nó có thể “làm suy yếu” con người, những người phải nhường lại các kỹ năng và khả năng cho máy móc tự động, gây ra sự mất cân bằng quyền lực giữa bộ điều khiển của AI và những bộ điều khiển bị thay thế bởi tự động hóa hoặc được sử dụng để truyền bá thông tin sai lệch, dù cố ý hay không. nếu không thì.

Một lần nữa, không có AI nào liên quan đến vấn đề đó cần phải chung chung và không quá khó để thấy được tiềm năng phát triển của AI thế hệ hiện tại để gây ra các loại rủi ro mà CAIS lo lắng. Bạn có thể có ý kiến ​​riêng của mình về mức độ tàn phá hoặc khả năng thực sự của phần mềm cũng như những gì nó thực sự có thể đạt được.

Lập luận của CAIS cho rằng điều quan trọng là phải kiểm tra và giải quyết các tác động tiêu cực đã được cảm nhận của AI và biến những tác động còn tồn tại đó thành tầm nhìn xa. “Khi chúng ta phải vật lộn với những rủi ro AI trước mắt… ngành công nghiệp AI và các chính phủ trên thế giới cũng cần phải nghiêm túc đối mặt với nguy cơ AI trong tương lai có thể gây ra mối đe dọa cho sự tồn tại của con người,” Hendrycks nói trong một tuyên bố.

“Thế giới đã hợp tác thành công để giảm thiểu rủi ro liên quan đến chiến tranh hạt nhân. Mức độ nỗ lực tương tự là cần thiết để giải quyết những mối nguy hiểm do các hệ thống AI trong tương lai gây ra,” Hendrycks thúc giục, với một danh sách các nhà lãnh đạo công ty, học thuật và tư tưởng ủng hộ ông. 

Musk không ở trên tàu

Các bên ký kết khác bao gồm nhà khoa học chính của Google DeepMind Ian Goodfellow, các nhà triết học David Chalmers và Daniel Dennett, tác giả kiêm blogger Sam Harris và nhạc sĩ/người yêu cũ của Elon Musk, Grimes. Nói về bản thân người đàn ông, không có chữ ký của Musk. 

Giám đốc điều hành Twitter trong số những người đã ký một mở thư được xuất bản bởi Viện Tương lai của Cuộc sống vào tháng XNUMX vừa qua thúc giục một tạm dừng sáu tháng về đào tạo hệ thống AI “mạnh hơn GPT-4.” Không có gì ngạc nhiên khi chữ ký của Giám đốc điều hành OpenAI Altman không có trên việc này lá thư cụ thể, bề ngoài là vì nó trực tiếp gọi công ty của anh ấy ra ngoài. 

OpenAI kể từ đó đã phát hành cảnh báo của chính nó về các mối đe dọa do AI tiên tiến gây ra và kêu gọi thành lập một cơ quan giám sát toàn cầu giống như Cơ quan Năng lượng Nguyên tử Quốc tế để điều chỉnh việc sử dụng AI.

Cuộc gọi cảnh báo và quy định đó, trong một trường hợp không đúng thời điểm trong lịch sử, đã đến cùng ngày với Altman bị đe dọa để kéo OpenAI và ChatGPT cùng với nó, từ EU qua khối Đạo luật AI. Các quy tắc mà anh ấy ủng hộ là một chuyện, nhưng Altman nói với Brussels rằng ý tưởng hạn chế AI của họ là một cây cầu quy định đi quá xa, cảm ơn bạn rất nhiều. 

nghị sĩ EU trả lời bằng cách nói rằng họ sẽ không bị OpenAI sai khiến và rằng nếu công ty không thể tuân thủ các quy tắc quản trị và minh bạch cơ bản, thì “hệ thống của họ không phù hợp với thị trường châu Âu,” MEP Kim van Sparrentak của Hà Lan khẳng định. 

Chúng tôi đã yêu cầu OpenAI làm rõ (các) quan điểm của Altman và sẽ cập nhật câu chuyện này nếu chúng tôi nhận được phản hồi. ®

Dấu thời gian:

Thêm từ Đăng ký