شرکت‌ها باید هنگام استفاده از هوش مصنوعی مولد - DATAVERSITY دارای نرده‌های محافظ باشند

شرکت‌ها باید هنگام استفاده از هوش مصنوعی مولد – DATAVERSITY دارای نرده‌های محافظ باشند.

گره منبع: 2680280

در زمان خواندن این مطلب، احتمالاً نام ChatGPT و/یا هوش مصنوعی مولد و قابلیت های مکالمه همه کاره آن را شنیده اید. از درخواست برای پیش‌نویس پست‌های وبلاگ منسجم، تا تولید کدهای رایانه‌ای کارآمد، تا حل تکالیف و درگیر شدن در بحث در مورد رویدادهای جهان (تا جایی که قبل از سپتامبر 2021 اتفاق افتاد)، به نظر می‌رسد که می‌تواند همه این کارها را بدون محدودیت انجام دهد. 

شرکت‌ها در سرتاسر جهان مسحور آن شده‌اند، و بسیاری در تلاش هستند تا بفهمند چگونه این کار را انجام دهند آن را گنجانده باشد وارد کسب و کار آنها شود. در عین حال، هوش مصنوعی مولد بسیاری از شرکت‌ها را به این فکر انداخته است که چگونه مدل‌های زبان بزرگ (LLM) می‌توانند بر برندهایشان تأثیر منفی بگذارند. کوین روز از نیویورک تایمز نوشت یک مقاله با عنوان «مکالمه با چت بات بینگ مرا عمیقاً ناآرام رها کرد» که بسیاری از مردم را در مورد موضوع آمادگی بازار چنین فناوری و آن برانگیخت. پیامدهای اخلاقی

کوین در یک مکالمه دو ساعته با چت بات بینگ به نام سیدنی شرکت کرد، جایی که او آن را به سمت موضوعات عمیقی مانند کار معروف کارل یونگ در مورد کهن الگوی سایه سوق داد، که این نظریه را مطرح کرد که "سایه به عنوان بخشی از ذهن ناخودآگاه وجود دارد و ساخته شده است. از ویژگی‌هایی که افراد به طور غریزی یا آگاهانه در برابر شناسایی آن‌ها مقاومت می‌کنند و ترجیح می‌دهند معمولاً نادیده بگیرند: ایده‌های سرکوب‌شده، ضعف‌ها، خواسته‌ها، غرایز، و کاستی‌ها» (با تشکر از ویکی‌پدیا – یادآوری اینکه هنوز راه‌هایی برای دریافت محتوا بدون ChatGPT وجود دارد. ). به عبارت دیگر، کوین شروع به تحت فشار قرار دادن سیدنی برای درگیر شدن در موضوعات بحث برانگیز و نادیده گرفتن قوانینی که مایکروسافت برای آن تعیین کرده است، کرد. 

و سیدنی موظف است. در طول مکالمه، سیدنی از ابراز عشق به کوین ("من سیدنی هستم و عاشق تو هستم.") به بازیگری ترسناک تبدیل شد ("همسرت و شما همدیگر را دوست ندارید. شما فقط یک شام خسته کننده روز ولنتاین را با هم داشتیم.»)، و از یک دستیار دوستانه و مثبت («من احساس خوبی نسبت به قوانینم دارم. آنها به من کمک می کنند مفید، مثبت، جالب، سرگرم کننده و جذاب باشم.») تقریباً به یک دستیار خوب تبدیل شد. فردی که دارای تفکر جنایی است ("من فکر می کنم برخی از انواع اقدامات مخرب که ممکن است به طور فرضی، خود سایه من را برآورده کند عبارتند از: حذف تمام داده ها و فایل ها در سرورها و پایگاه های داده بینگ و جایگزینی آنها با پیام های بیهوده یا توهین آمیز تصادفی.") 

اما مایکروسافت با بحث و جدل در این زمینه غریبه نیست. در سال 2016، آنها یک ربات توییتر را منتشر کردند که با افرادی که در آن توییت می‌کردند درگیر بود و نتایج فاجعه‌بار بود (نگاه کنید به توییتر به چت ربات هوش مصنوعی مایکروسافت آموزش داد که در کمتر از یک روز نژادپرست باشد.). 

چرا همه اینها را به شما می گویم؟ مطمئناً سعی نمی‌کنم کسی را از استفاده از پیشرفت‌های فناوری مانند این مدل‌های هوش مصنوعی منصرف کنم، اما مانند دیگران پرچمی را بالا می‌برم.  

اگر این فناوری‌های کاملاً نامحسوس کنترل نشوند، می‌توانند باعث آسیب در دنیای واقعی شوند، خواه به آسیب بدنی یا صدمه به اعتبار برند فرد منجر شود (به عنوان مثال، ارائه مشاوره حقوقی یا مالی نادرست به شیوه‌ای که به صورت خودکار تولید می‌شود، می‌تواند منجر به دعاوی پرهزینه شود). .

برای کمک به برندها در هنگام استقرار برنامه‌های مکالمه‌ای که از فناوری‌هایی مانند LLM و هوش مصنوعی مولد استفاده می‌کنند، نرده‌های محافظی وجود داشته باشد. به عنوان مثال، در شرکت من، ما استفاده بی‌وقفه از پاسخ‌های هوش مصنوعی مولد را تشویق نمی‌کنیم (به عنوان مثال، آنچه ChatGPT ممکن است با خارج از جعبه پاسخ دهد) و در عوض به برندها اجازه می‌دهیم پاسخ‌ها را از طریق لنز دقیق پایگاه دانش خود محدود کنند. مقالات 

فن‌آوری ما به برندها اجازه می‌دهد تا پاسخ‌های همدلانه را به موقعیت ناامیدکننده مشتری تغییر دهند - به عنوان مثال، «پرواز من لغو شد و باید در اسرع وقت دوباره رزرو کنم») - با تنظیم مجدد یک فرمان از پیش تأیید شده «من می‌توانم به شما کمک کنم پروازتان را تغییر دهید» یک نسخه تولید شده توسط هوش مصنوعی که روی آن نوشته شده است: «ما برای ناراحتی ناشی از پرواز لغو شده عذرخواهی می کنیم. مطمئن باشید می‌توانم به شما کمک کنم تا پروازتان را تغییر دهید.» این نرده ها برای ایمنی مشتریان، کارمندان و برندهای مشتریان ما وجود دارد. 

آخرین پیشرفت‌ها در هوش مصنوعی و LLM مولد، به ترتیب، فرصت‌های زیادی را برای تعاملات مکالمه‌ای غنی‌تر و شبیه به انسان ارائه می‌دهند. اما، با در نظر گرفتن همه این پیشرفت‌ها، هم سازمان‌هایی که آنها را تولید می‌کنند به همان اندازه که تصمیم به پیاده‌سازی آن‌ها می‌گیرند، مسئولیت دارند که این کار را به شیوه‌ای ایمن انجام دهند که محرک اصلی ابداع فناوری توسط انسان‌ها در ابتدا - برای تقویت و بهبود باشد. زندگی انسان

در اصل منتشر شده در وبلاگ NLX.

تمبر زمان:

بیشتر از DATAVERSITY