ওপেনএআই সুপার ইন্টেলিজেন্স নিয়ন্ত্রণের জন্য বিশ্বব্যাপী সংস্থার আহ্বান জানিয়েছে

ওপেনএআই সুপার ইন্টেলিজেন্স নিয়ন্ত্রণের জন্য বিশ্বব্যাপী সংস্থার আহ্বান জানিয়েছে

উত্স নোড: 2674707

GPT-4 নির্মাতা ওপেনএআই-এর শীর্ষ কর্মকর্তাদের মতে, প্রযুক্তি মানবতার জন্য নিরাপদ তা নিশ্চিত করতে একটি আন্তর্জাতিক সংস্থার কৃত্রিম সাধারণ বুদ্ধিমত্তা পরিদর্শন ও অডিট করার দায়িত্বে থাকা উচিত।

সিইও স্যাম অল্টম্যান এবং সহ-প্রতিষ্ঠাতা গ্রেগ ব্রকম্যান এবং ইলিয়া সুটস্কেভার বলেছেন যে এটি "অনুভূতিযোগ্য" যে AI অসামান্য ক্ষমতা অর্জন করবে যা পরবর্তী দশকে মানুষের চেয়ে বেশি।

"সম্ভাব্য উত্থান-পতন উভয়ের পরিপ্রেক্ষিতে, মানবজাতিকে অতীতে যে সমস্ত প্রযুক্তির সাথে লড়াই করতে হয়েছে তার চেয়ে সুপার ইন্টেলিজেন্স আরও শক্তিশালী হবে। আমরা নাটকীয়ভাবে আরও সমৃদ্ধ ভবিষ্যত পেতে পারি; কিন্তু সেখানে যাওয়ার জন্য আমাদের ঝুঁকি পরিচালনা করতে হবে,” ত্রয়ী লিখেছেন মঙ্গলবারে.

এই ধরনের শক্তিশালী প্রযুক্তি নির্মাণের খরচ কমছে কারণ আরও বেশি লোক এটিকে এগিয়ে নিয়ে যাওয়ার জন্য কাজ করে, তারা যুক্তি দিয়েছিল। অগ্রগতি নিয়ন্ত্রণ করার জন্য, উন্নয়নটি আন্তর্জাতিক পারমাণবিক শক্তি সংস্থা (IAEA) এর মতো একটি আন্তর্জাতিক সংস্থা দ্বারা তত্ত্বাবধান করা উচিত।

IAEA 1957 সালে এমন একটি সময়ে প্রতিষ্ঠিত হয়েছিল যখন সরকারগুলি স্নায়ুযুদ্ধের সময় পারমাণবিক অস্ত্র তৈরির আশঙ্কা করেছিল। সংস্থাটি পারমাণবিক শক্তি নিয়ন্ত্রণে সহায়তা করে এবং পারমাণবিক শক্তি সামরিক উদ্দেশ্যে ব্যবহার না করা হয় তা নিশ্চিত করার জন্য সুরক্ষা ব্যবস্থা সেট করে।

“আমাদের শেষ পর্যন্ত সুপার ইন্টেলিজেন্স প্রচেষ্টার জন্য একটি IAEA এর মতো কিছু প্রয়োজন হতে পারে; একটি নির্দিষ্ট ক্ষমতা (অথবা গণনার মতো সংস্থান) থ্রেশহোল্ডের উপরে যে কোনও প্রচেষ্টা একটি আন্তর্জাতিক কর্তৃপক্ষের অধীন হতে হবে যা সিস্টেমগুলি পরিদর্শন করতে পারে, অডিটের প্রয়োজন, সুরক্ষা মানগুলির সাথে সম্মতির জন্য পরীক্ষা, স্থাপনার ডিগ্রি এবং সুরক্ষার স্তরের উপর বিধিনিষেধ স্থাপন করতে পারে, ইত্যাদি, " তারা বলেছিল.

এই ধরনের একটি গোষ্ঠী গণনা এবং শক্তির ব্যবহার ট্র্যাক করার দায়িত্বে থাকবে, বড় এবং শক্তিশালী মডেলগুলি প্রশিক্ষণ এবং চালানোর জন্য প্রয়োজনীয় সংস্থানগুলি।

"আমরা সম্মিলিতভাবে একমত হতে পারি যে সীমান্তে এআই সক্ষমতার বৃদ্ধির হার প্রতি বছর একটি নির্দিষ্ট হারের মধ্যে সীমাবদ্ধ," OpenAI-এর শীর্ষস্থানীয় ব্যক্তিরা পরামর্শ দিয়েছেন৷ কোম্পানিগুলিকে স্বেচ্ছায় পরিদর্শনে সম্মত হতে হবে, এবং সংস্থার উচিত "অস্তিত্বগত ঝুঁকি হ্রাস করার" উপর ফোকাস করা উচিত নয়, নিয়ন্ত্রক বিষয়গুলি যা একটি দেশের স্বতন্ত্র আইন দ্বারা সংজ্ঞায়িত এবং সেট করা হয়েছে৷

গত সপ্তাহে, অল্টম্যান একটি সেনেটে একটি নির্দিষ্ট থ্রেশহোল্ডের উপরে উন্নত ক্ষমতা সহ মডেলগুলি তৈরি করার জন্য কোম্পানিগুলিকে লাইসেন্স নেওয়া উচিত বলে ধারণাটি সামনে রেখেছিলেন। শ্রবণ. তার পরামর্শটি পরে সমালোচিত হয়েছিল কারণ এটি অন্যায়ভাবে ছোট কোম্পানি বা ওপেন সোর্স সম্প্রদায়ের দ্বারা নির্মিত এআই সিস্টেমগুলিকে প্রভাবিত করতে পারে যাদের আইনী প্রয়োজনীয়তা পূরণের জন্য সম্পদ থাকার সম্ভাবনা কম।

"আমরা মনে করি যে কোম্পানিগুলি এবং ওপেন সোর্স প্রকল্পগুলিকে একটি উল্লেখযোগ্য ক্ষমতার থ্রেশহোল্ডের নীচে মডেলগুলি বিকাশের অনুমতি দেওয়া গুরুত্বপূর্ণ, আমরা এখানে যে ধরনের প্রবিধান বর্ণনা করি (লাইসেন্স বা অডিটের মতো ভারী প্রক্রিয়া সহ) ছাড়াই," তারা বলে৷

ইলন মাস্ক মার্চের শেষের দিকে একটি খোলা চিঠির 1,000 স্বাক্ষরকারীদের মধ্যে একজন ছিলেন যেটি মানবতার জন্য সম্ভাব্য ঝুঁকির কারণে GPT4 এর চেয়ে বেশি শক্তিশালী AI বিকাশ ও প্রশিক্ষণে ছয় মাসের বিরতির আহ্বান জানিয়েছিল, যা অল্টম্যান নিশ্চিত এপ্রিলের মাঝামাঝি সময়ে এটি করছিল।

চিঠিতে বলা হয়েছে, "শক্তিশালী AI সিস্টেমগুলি শুধুমাত্র তখনই তৈরি করা উচিত যখন আমরা নিশ্চিত হব যে তাদের প্রভাবগুলি ইতিবাচক হবে এবং তাদের ঝুঁকিগুলি নিয়ন্ত্রণযোগ্য হবে।"

অ্যালফাবেট এবং গুগলের সিইও সুন্দর পিচাই সপ্তাহান্তে ফিন্যান্সিয়াল টাইমস-এ একটি লেখা লিখেছেন, উক্তি: "আমি এখনও বিশ্বাস করি যে AI নিয়ন্ত্রিত না করা খুবই গুরুত্বপূর্ণ, এবং ভালভাবে নিয়ন্ত্রণ না করা খুবই গুরুত্বপূর্ণ"। ®

সময় স্ট্যাম্প:

থেকে আরো নিবন্ধনকর্মী