اهمیت تنوع در هوش مصنوعی به عقیده نیست، ریاضی است - وبلاگ IBM

اهمیت تنوع در هوش مصنوعی به عقیده نیست، ریاضی است - وبلاگ IBM

گره منبع: 3084301


اهمیت تنوع در هوش مصنوعی به عقیده نیست، ریاضی است - وبلاگ IBM




همه ما می خواهیم ارزش های انسانی ایده آل خود را در فناوری هایمان منعکس کنیم. ما انتظار داریم فناوری هایی مانند هوش مصنوعی (AI) به ما دروغ نگویند، تبعیض قائل نشوند و برای استفاده ما و فرزندانمان ایمن باشند. با این حال، بسیاری از سازندگان هوش مصنوعی در حال حاضر به دلیل سوگیری‌ها، نادرستی‌ها و شیوه‌های مشکل‌ساز داده‌ای که در مدل‌هایشان آشکار می‌شود، با واکنش‌های منفی مواجه هستند. این مسائل به چیزی بیش از یک راه حل فنی، الگوریتمی یا مبتنی بر هوش مصنوعی نیاز دارند. در واقع، یک رویکرد جامع، اجتماعی و فنی مورد نیاز است.

ریاضی یک حقیقت قدرتمند را نشان می دهد

همه مدل‌های پیش‌بینی‌کننده، از جمله هوش مصنوعی، زمانی دقیق‌تر هستند که از هوش و تجربه انسانی متنوعی استفاده کنند. این یک نظر نیست؛ اعتبار تجربی دارد. در نظر بگیرید قضیه پیش بینی تنوع. به زبان ساده، وقتی تنوع در یک گروه زیاد است، خطای جمعیت کوچک است - حمایت از مفهوم "خرد جمعیت". در یک مطالعه تاثیرگذار، نشان داده شد که گروه‌های متنوعی از حل‌کننده‌های با توانایی پایین می‌توانند از گروه‌های حل‌کننده‌های با توانایی بالا بهتر عمل کنند.هانگ و پیج، 2004).

در زبان ریاضی: هرچه واریانس شما بیشتر باشد، میانگین شما استانداردتر است. معادله به شکل زیر است:

A مطالعه بیشتر محاسبات بیشتری ارائه کرد که تعاریف آماری یک جمعیت عاقل را اصلاح می‌کند، از جمله ناآگاهی از پیش‌بینی‌های سایر اعضا و درج آنهایی که حداکثر متفاوت پیش‌بینی‌ها یا قضاوت‌ها (همبستگی منفی). بنابراین، این فقط حجم نیست، بلکه تنوع است که پیش بینی ها را بهبود می بخشد. چگونه ممکن است این بینش بر ارزیابی مدل‌های هوش مصنوعی تأثیر بگذارد؟

دقت (نادرست) مدل

برای نقل قول رایج، همه مدل ها اشتباه هستند. این در زمینه های آمار، علم و هوش مصنوعی صادق است. مدل های ایجاد شده با عدم تخصص دامنه می تواند منجر به نادرست خروجی ها.

امروزه، یک گروه کوچک همگن از مردم تعیین می‌کنند که از چه داده‌هایی برای آموزش مدل‌های هوش مصنوعی مولد استفاده کنند، که از منابعی گرفته می‌شود که تا حد زیادی انگلیسی را معرفی می‌کنند. "برای اکثر بیش از 6,000 زبان در جهان، داده های متنی موجود برای آموزش یک مدل پایه در مقیاس بزرگ کافی نیست" (از "در مورد فرصت ها و خطرات مدل های بنیادبومسنی و همکاران، 2022).

علاوه بر این، خود مدل‌ها از معماری‌های محدود ایجاد شده‌اند: «تقریباً تمام مدل‌های پیشرفته NLP اکنون از یکی از معدود مدل‌های پایه، مانند BERT، RoBERTa، BART، T5 و غیره اقتباس شده‌اند. اهرم بسیار بالا (هر گونه پیشرفت در مدل های پایه می تواند منجر به مزایای فوری در تمام NLP شود)، همچنین یک تعهد است. همه سیستم های هوش مصنوعی ممکن است همان سوگیری های مشکل ساز چند مدل پایه را به ارث ببرند (بومسنی و همکاران) "

برای اینکه هوش مصنوعی مولد جوامع متنوعی را که به آنها خدمت می‌کند منعکس کند، باید طیف گسترده‌تری از داده‌های انسان در مدل‌ها نشان داده شود.

ارزیابی دقت مدل با ارزیابی سوگیری همراه است. باید بپرسیم که هدف از مدل چیست و برای چه کسانی بهینه شده است؟ برای مثال در نظر بگیرید که چه کسی از الگوریتم‌های توصیه محتوا و الگوریتم‌های موتور جستجو بیشتر سود می‌برد. ذینفعان ممکن است علایق و اهداف بسیار متفاوتی داشته باشند. الگوریتم‌ها و مدل‌ها به اهداف یا پروکسی‌هایی برای خطای Bayes نیاز دارند: حداقل خطایی که یک مدل باید بر اساس آن بهبود یابد. این پروکسی اغلب یک شخص است، مانند یک متخصص موضوع با تخصص دامنه.

یک چالش بسیار انسانی: ارزیابی ریسک قبل از تهیه یا توسعه مدل

مقررات و برنامه‌های اقدام در حال ظهور هوش مصنوعی به طور فزاینده‌ای بر اهمیت فرم‌های ارزیابی تأثیر الگوریتمی تأکید می‌کنند. هدف این فرم‌ها جمع‌آوری اطلاعات حیاتی در مورد مدل‌های هوش مصنوعی است تا تیم‌های حاکمیتی بتوانند خطرات خود را قبل از استقرار آن‌ها ارزیابی و رسیدگی کنند. سوالات معمولی عبارتند از:

  • مورد استفاده مدل شما چیست؟
  • خطرات ناشی از تأثیرات متفاوت چیست؟
  • انصاف را چگونه ارزیابی می کنید؟
  • چگونه مدل خود را قابل توضیح می کنید؟

اگرچه با نیت خوب طراحی شده است، اما مسئله این است که اکثر دارندگان مدل هوش مصنوعی نمی‌دانند که چگونه خطرات مورد استفاده خود را ارزیابی کنند. یک جملات متداول ممکن است این باشد: "اگر مدل من اطلاعات شناسایی شخصی (PII) را جمع آوری نمی کند، چگونه می تواند ناعادلانه باشد؟" در نتیجه، فرم‌ها به ندرت با دقت لازم برای سیستم‌های حاکمیتی تکمیل می‌شوند تا عوامل خطر را با دقت مشخص کنند.

بنابراین، ماهیت اجتماعی و فنی راه حل مورد تاکید قرار می گیرد. به صاحب مدل - یک فرد - نمی توان به سادگی فهرستی از چک باکس ها را برای ارزیابی اینکه آیا مورد استفاده آنها باعث آسیب می شود یا خیر، در اختیار او قرار داد. در عوض، آنچه مورد نیاز است این است که گروه‌هایی از افراد با تجربیات مختلف زندگی‌شده در جهان در جوامعی که امنیت روانی ارائه می‌دهند گرد هم آیند تا گفتگوهای دشواری درباره تأثیرات متفاوت داشته باشند.

استقبال از دیدگاه های گسترده تر برای هوش مصنوعی قابل اعتماد

IBM به اتخاذ رویکرد «مشتری صفر» معتقد است، توصیه‌ها و سیستم‌هایی را که برای مشتریان خود در سراسر راه‌حل‌های مشاوره و محصول هدایت می‌کند، پیاده‌سازی می‌کند. این رویکرد به شیوه‌های اخلاقی گسترش می‌یابد، به همین دلیل است که IBM یک مرکز تعالی هوش مصنوعی قابل اعتماد (COE) ایجاد کرد.

همانطور که در بالا توضیح داده شد، تنوع تجربیات و مجموعه مهارت‌ها برای ارزیابی صحیح تأثیرات هوش مصنوعی حیاتی است. اما چشم انداز شرکت در یک مرکز تعالی می تواند در شرکتی که پر از مبتکران، متخصصان و مهندسان برجسته هوش مصنوعی است، ترسناک باشد، بنابراین ایجاد جامعه ای از امنیت روانی مورد نیاز است. آی‌بی‌ام این موضوع را با گفتن این جمله به وضوح بیان می‌کند: «به هوش مصنوعی علاقه‌مندی؟ به اخلاق هوش مصنوعی علاقه دارید؟ شما روی این میز یک صندلی دارید.»

COE آموزش اخلاق هوش مصنوعی را به شاغلین در هر سطح ارائه می دهد. هم برنامه های یادگیری همزمان (معلم و دانش آموزان در محیط کلاس) و هم برنامه های ناهمزمان (خود هدایت شونده) ارائه می شود.

اما این COE است اعمال می شود آموزش‌هایی که به پزشکان ما عمیق‌ترین بینش‌ها را می‌دهد، زیرا آنها با تیم‌های جهانی، متنوع و چند رشته‌ای روی پروژه‌های واقعی کار می‌کنند تا تأثیرات متفاوت را بهتر درک کنند. آنها همچنین از چارچوب های تفکر طراحی IBM استفاده می کنند طراحی برای هوش مصنوعی گروه به صورت داخلی و با مشتریان برای ارزیابی اثرات ناخواسته مدل‌های هوش مصنوعی استفاده می‌کند و افرادی را که اغلب به حاشیه رانده می‌شوند، در ذهن خود نگه می‌دارد. (به کتاب سیلویا داکورت مراجعه کنید چرخ قدرت و امتیاز برای مثال هایی از نحوه تلاقی ویژگی های شخصی برای امتیاز دادن یا به حاشیه راندن افراد.) IBM همچنین بسیاری از چارچوب ها را به جامعه منبع باز اهدا کرد. طراحی اخلاقی.

در زیر تعدادی از گزارشاتی که IBM به صورت عمومی در مورد این پروژه ها منتشر کرده است آورده شده است:

ابزارهای مدیریت مدل هوش مصنوعی خودکار برای به دست آوردن بینش های مهم در مورد نحوه عملکرد مدل هوش مصنوعی شما مورد نیاز است. اما توجه داشته باشید، گرفتن ریسک قبل از توسعه و تولید مدل شما بهینه است. با ایجاد جوامعی از پزشکان متنوع و چند رشته ای که فضای امنی را برای افراد فراهم می کند تا مکالمات سختی در مورد تأثیرات متفاوت داشته باشند، می توانید سفر خود را برای عملیاتی کردن اصول خود آغاز کنید و هوش مصنوعی را مسئولانه توسعه دهید.

در عمل، زمانی که برای متخصصان هوش مصنوعی استخدام می‌کنید، در نظر بگیرید که بیش از 70 درصد تلاش برای ایجاد مدل‌ها، تنظیم داده‌های مناسب است. شما می‌خواهید افرادی را استخدام کنید که می‌دانند چگونه داده‌هایی را جمع‌آوری کنند که نماینده هستند و همچنین با رضایت جمع‌آوری می‌شوند. شما همچنین می خواهید افرادی که می دانند با کارشناسان دامنه کار کنند تا مطمئن شوند که رویکرد صحیحی دارند. اطمینان از داشتن هوش هیجانی این تمرین‌کنندگان برای برخورد با چالش مدیریت مسئولانه هوش مصنوعی با فروتنی و تشخیص، کلیدی است. ما باید در مورد یادگیری نحوه تشخیص اینکه چگونه و چه زمانی سیستم‌های هوش مصنوعی می‌توانند نابرابری را تشدید کنند، به همان اندازه که می‌توانند هوش انسان را تقویت کنند، آگاه باشیم.

نحوه عملکرد کسب و کارتان با هوش مصنوعی را دوباره ابداع کنید

این مقاله به شما کمک کرد؟

بلهنه


اطلاعات بیشتر از هوش مصنوعی




متعادل کردن هوش مصنوعی: کار خوب انجام دهید و از آسیب دوری کنید

5 حداقل خواندن - پدرم در بزرگ شدن همیشه می گفت: "خوبی کن." در کودکی فکر می‌کردم این دستور زبان سخت است و او را تصحیح می‌کردم و اصرار می‌کردم که باید «خوب انجام بده». حتی فرزندانم وقتی نصیحت "خوب کن" او را می شنوند مرا اذیت می کنند و من اعتراف می کنم که به او اجازه دادم در جبهه دستور زبان پاس داشته باشد. در مورد هوش مصنوعی مسئول (AI)، سازمان ها باید توانایی جلوگیری از آسیب را به عنوان یک تمرکز اصلی در اولویت قرار دهند. برخی از سازمان ها نیز ممکن است به دنبال استفاده از…




نحوه همکاری شرکت های بیمه با IBM برای پیاده سازی راه حل های مبتنی بر هوش مصنوعی

7 حداقل خواندن - آی‌بی‌ام با مشتریان بیمه‌مان از طریق جبهه‌های مختلف کار می‌کند، و داده‌های موسسه IBM برای ارزش تجاری (IBV) سه الزام کلیدی را که تصمیم‌های مدیریت بیمه‌گر را هدایت می‌کنند، شناسایی کرده است: اتخاذ تحول دیجیتالی برای توانمندسازی بیمه‌گران برای ارائه محصولات جدید، افزایش درآمد و بهبود مشتری. تجربه. بهبود بهره وری اصلی (کسب و کار و فناوری اطلاعات) و در عین حال کاهش هزینه. با استفاده از ابر هیبریدی ایمن و هوش مصنوعی، برنامه های کاربردی و نوسازی داده ها را افزایش دهید. بیمه گذاران باید الزامات کلیدی زیر را رعایت کنند تا تغییر شکل دهند…




باز کردن قدرت چت بات ها: مزایای کلیدی برای مشاغل و مشتریان

6 حداقل خواندن - ربات‌های گفتگو می‌توانند به مشتریان و مشتریان بالقوه شما کمک کنند تا با پاسخ دادن فوری به درخواست‌هایی که از ورودی صوتی، ورودی متن یا ترکیبی از هر دو استفاده می‌کنند، اطلاعات را به سرعت بیابند یا وارد کنند، و نیازی به مداخله انسانی یا تحقیقات دستی را از بین می‌برند. ربات‌های چت همه جا هستند و به کارکنانی که از بلندگوهای هوشمند در خانه استفاده می‌کنند، پیام کوتاه، واتس‌اپ، فیس‌بوک مسنجر، اسلک و برنامه‌های متعدد دیگر کمک می‌کنند. جدیدترین چت ربات های هوش مصنوعی (AI) که به عنوان دستیاران مجازی هوشمند یا عوامل مجازی نیز شناخته می شوند، نه تنها…




به ما در خط مقدم هوش مصنوعی برای کسب و کار بپیوندید: به سال 2024 فکر کنید

<1 حداقل خواندن - شما می خواهید از هوش مصنوعی برای تسریع بهره وری و نوآوری برای کسب و کار خود استفاده کنید. شما باید فراتر از آزمایش به مقیاس بروید. شما باید سریع حرکت کنید. در Boston for Think 2024 به ما بپیوندید، تجربه ای منحصر به فرد و جذاب که شما را در سفر تجاری خود به هوش مصنوعی راهنمایی می کند، مهم نیست در کجای جاده هستید. از ایجاد آمادگی هوش مصنوعی با رویکرد ابر ترکیبی متفکرانه، تا مقیاس‌بندی هوش مصنوعی در عملکردهای اصلی کسب‌وکار و نیازهای صنعت، تا تعبیه هوش مصنوعی در…

خبرنامه های آی بی ام

خبرنامه‌ها و به‌روزرسانی‌های موضوعی ما را دریافت کنید که جدیدترین رهبری فکری و بینش را در مورد روندهای نوظهور ارائه می‌دهد.

مشترک شدن در حال حاضر

خبرنامه های بیشتر

تمبر زمان:

بیشتر از IBM IoT