এখনই ব্যবস্থা না নিলে এআই থেকে বিলুপ্তির হুঁশিয়ারি বিশেষজ্ঞরা

এখনই ব্যবস্থা না নিলে এআই থেকে বিলুপ্তির হুঁশিয়ারি বিশেষজ্ঞরা

উত্স নোড: 2688105

AI-র বৃত্তাকার তৈরির বিষয়ে আরেকটি ডুমসেয়িং খোলা চিঠি রয়েছে। এবার কৃত্রিম বুদ্ধিমত্তার দ্বারা সৃষ্ট কথিত বিলুপ্তি-স্তরের হুমকিগুলিকে আরও গুরুত্ব সহকারে নেওয়ার জন্য বিশ্বকে আহ্বান জানানোর জন্য প্রচুর প্রযুক্তি নেতা, এমএল আলোকিত ব্যক্তি এবং এমনকি কিছু সেলিব্রিটি স্বাক্ষর করেছেন। 

আরও উপযুক্ত একটি বিবৃতি, এআই অগ্রগামীর মতো ব্যক্তিদের দ্বারা স্বাক্ষরিত AI সেফটি (CAIS) কেন্দ্রের বার্তা জেফ্রি হিন্টন, OpenAI সিইও স্যাম অল্টম্যান, এনক্রিপশন গুরু মার্টিন হেলম্যান, মাইক্রোসফ্ট সিটিও কেভিন স্কট এবং অন্যান্যরা একক ঘোষণামূলক বাক্য সর্বনাশের ভবিষ্যদ্বাণী করা যদি এটি অমনোযোগী হয়:

"এআই থেকে বিলুপ্তির ঝুঁকি হ্রাস করা মহামারী এবং পারমাণবিক যুদ্ধের মতো অন্যান্য সামাজিক-স্কেল ঝুঁকির পাশাপাশি একটি বিশ্বব্যাপী অগ্রাধিকার হওয়া উচিত।" 

এত সংক্ষিপ্ত কেন? লক্ষ্য ছিল "এআই বিলুপ্তির ঝুঁকি নিয়ে উদ্বিগ্ন এআই বিজ্ঞানী, প্রযুক্তি নেতা এবং অধ্যাপকদের বিস্তৃত এবং ক্রমবর্ধমান জোট প্রদর্শন করা। CAIS এর পরিচালক ড্যান হেন্ড্রিকস বলেছেন, আমাদের স্টেকের ব্যাপক স্বীকৃতি দরকার যাতে আমরা কার্যকর নীতি আলোচনা করতে পারি নিবন্ধনকর্মী.

CAIS তার মধ্যে কৃত্রিম সাধারণ বুদ্ধিমত্তার (AGI) কোনো উল্লেখ করেনি এআই ঝুঁকির তালিকা, আমরা নোট. এবং বর্তমান প্রজন্মের মডেলগুলি, যেমন চ্যাটজিপিটি, মানবতার জন্য একটি সর্বপ্রকার হুমকি নয়, হেন্ড্রিকস আমাদের বলেছেন। এই সপ্তাহের সতর্কতা পরবর্তীতে কী হতে পারে সে সম্পর্কে।

"এই বিবৃতিটি যে ধরনের বিপর্যয়মূলক হুমকির কথা উল্লেখ করে তা ভবিষ্যতের উন্নত এআই সিস্টেমের সাথে সম্পর্কিত," হেন্ড্রিকস মতামত দিয়েছেন। তিনি যোগ করেছেন যে "অ্যাপোক্যালিপটিক হুমকি" স্তরে পৌঁছানোর জন্য প্রয়োজনীয় অগ্রগতি কয়েক দশক নয়, দুই থেকে 10 বছরের মতো হতে পারে। “আমাদের এখনই প্রস্তুতি নিতে হবে। যাইহোক, AI সিস্টেমগুলি যা বিপর্যয়কর ফলাফলের কারণ হতে পারে তাদের AGI হওয়ার দরকার নেই, "তিনি বলেছিলেন। 

কারণ মানুষ যেভাবেই হোক পুরোপুরি শান্তিপ্রিয়

এক ধরনের হুমকি অস্ত্রায়ন, বা ধারণা যে কেউ উপকারী এআইকে অত্যন্ত ধ্বংসাত্মক হতে পারে, যেমন রাসায়নিক বা জৈবিক অস্ত্র বিকাশের জন্য ড্রাগ আবিষ্কারের বট ব্যবহার করা বা মেশিন-ভিত্তিক যুদ্ধের জন্য শক্তিবৃদ্ধি শিক্ষা ব্যবহার করা। এটি বলেছে, মানুষ ইতিমধ্যেই এই ধরণের অস্ত্র তৈরি করতে সক্ষম, যা একজন ব্যক্তি, প্রতিবেশী, শহর বা দেশকে নিয়ে যেতে পারে।

AI-কে ব্যক্তিগত বা সামাজিক মূল্যবোধের তোয়াক্কা না করেই তার লক্ষ্য অর্জনের জন্য প্রশিক্ষিত করা যেতে পারে, আমাদের সতর্ক করা হয়েছে। এটি এমন মানুষদের "অক্ষম" করতে পারে যারা স্বয়ংক্রিয় মেশিনে দক্ষতা এবং ক্ষমতা প্রদান করে, যার ফলে AI এর নিয়ন্ত্রক এবং অটোমেশন দ্বারা বাস্তুচ্যুতদের মধ্যে শক্তির ভারসাম্যহীনতা সৃষ্টি হয়, অথবা ইচ্ছাকৃতভাবে বা ভুল তথ্য ছড়ানোর জন্য ব্যবহার করা হয়। অন্যভাবে.

আবার, এর সাথে জড়িত AI-এর কোনওটিই সাধারণ হওয়ার দরকার নেই এবং CAIS যে ধরণের ঝুঁকি নিয়ে উদ্বিগ্ন তা নিয়ে বর্তমান-প্রজন্মের AI-এর বিকাশের সম্ভাবনা দেখতে খুব বেশি কিছু নয়। সফ্টওয়্যারটি কতটা ধ্বংসাত্মক বা সক্ষম বা হতে পারে এবং এটি আসলে কী অর্জন করতে পারে সে সম্পর্কে আপনার নিজস্ব মতামত থাকতে পারে।

এটি অত্যন্ত গুরুত্বপূর্ণ, CAIS-এর যুক্তি, AI এর নেতিবাচক প্রভাবগুলি পরীক্ষা করা এবং মোকাবেলা করা যা ইতিমধ্যেই অনুভূত হচ্ছে এবং সেই বিদ্যমান প্রভাবগুলিকে দূরদর্শিতায় পরিণত করা। "যেহেতু আমরা তাৎক্ষণিক AI ঝুঁকির সাথে মোকাবিলা করছি … বিশ্বজুড়ে AI শিল্প এবং সরকারগুলিকে সেই ঝুঁকিকেও গুরুত্ব সহকারে মোকাবেলা করতে হবে যে ভবিষ্যতে AIs মানুষের অস্তিত্বের জন্য হুমকি হয়ে উঠতে পারে," হেন্ড্রিক্স বলেছেন এক বিবৃতিতে.

“বিশ্ব পারমাণবিক যুদ্ধ সম্পর্কিত ঝুঁকি কমাতে সফলভাবে সহযোগিতা করেছে। ভবিষ্যতের এআই সিস্টেমের দ্বারা সৃষ্ট বিপদগুলি মোকাবেলা করার জন্য একই স্তরের প্রচেষ্টা প্রয়োজন, "হেন্ড্রিকস তাকে সমর্থনকারী কর্পোরেট, একাডেমিক এবং চিন্তাশীল নেতাদের একটি তালিকা সহ অনুরোধ করেছিলেন। 

কস্তুরী বোর্ডে নেই

অন্যান্য স্বাক্ষরকারীদের মধ্যে রয়েছে গুগল ডিপমাইন্ডের প্রধান বিজ্ঞানী ইয়ান গুডফেলো, দার্শনিক ডেভিড চালমারস এবং ড্যানিয়েল ডেনেট, লেখক এবং ব্লগার স্যাম হ্যারিস এবং সঙ্গীতজ্ঞ/এলন মাস্কের প্রাক্তন, গ্রিমস। লোকটির কথা বলতে গেলে, কস্তুরীর স্বাক্ষর অনুপস্থিত। 

টুইটারের সিইও ছিল যারা স্বাক্ষর করেছেন তাদের মধ্যে খোলা চিঠি ফিউচার অফ লাইফ ইনস্টিটিউট এই গত মার্চে প্রকাশিত একটি তাগিদ দিয়ে ছয় মাস বিরতি AI সিস্টেমের প্রশিক্ষণের উপর "GPT-4 এর চেয়ে বেশি শক্তিশালী।" আশ্চর্যজনকভাবে, OpenAI সিইও অল্টম্যানের স্বাক্ষর অনুপস্থিত ছিল যে বিশেষ চিঠি, স্পষ্টতই কারণ এটি তার কোম্পানিকে সরাসরি ডেকেছিল। 

OpenAI এর পর থেকে জারি করেছে এর নিজস্ব সতর্কতা উন্নত AI দ্বারা সৃষ্ট হুমকি সম্পর্কে এবং AI-এর ব্যবহার নিয়ন্ত্রণের জন্য আন্তর্জাতিক পরমাণু শক্তি সংস্থার অনুরূপ একটি বিশ্বব্যাপী নজরদারি সংস্থা প্রতিষ্ঠার আহ্বান জানিয়েছে।

সেই সতর্কতা এবং নিয়ন্ত্রক কল, ঐতিহাসিকভাবে দুর্বল সময়ের ক্ষেত্রে, একই দিনে অল্টম্যান এসেছিল বিপন্ন ব্লকের উপর EU থেকে OpenAI, এবং ChatGPT এর সাথে টানতে এআই আইন. তিনি যে নিয়মগুলি সমর্থন করেন তা এক জিনিস, তবে অল্টম্যান ব্রাসেলসকে বলেছিলেন যে তাদের AI সীমাবদ্ধতার ধারণাটি একটি নিয়ন্ত্রক সেতু ছিল অনেক দূরে, আপনাকে অনেক ধন্যবাদ। 

ইইউ সংসদ সদস্য প্রতিক্রিয়া ওপেনএআই দ্বারা নির্দেশিত হবে না বলে, এবং যদি কোম্পানি মৌলিক শাসন এবং স্বচ্ছতার নিয়ম মেনে চলতে না পারে, "তাদের সিস্টেম ইউরোপীয় বাজারের জন্য উপযুক্ত নয়," ডাচ এমইপি কিম ভ্যান স্পারেন্টাক জোর দিয়েছিলেন। 

আমরা ওপেনএআই-কে অল্টম্যানের অবস্থান(গুলি) সম্পর্কে স্পষ্টীকরণের জন্য বলেছি এবং আমরা যদি ফিরে শুনি তবে এই গল্পটি আপডেট করব। ®

সময় স্ট্যাম্প:

থেকে আরো নিবন্ধনকর্মী