استفاده از داده های خود برای کاهش مشکلات حریم خصوصی هوش مصنوعی و بهبود اعتماد هوش مصنوعی | IoT Now News & Reports

استفاده از داده های خود برای کاهش مشکلات حریم خصوصی هوش مصنوعی و بهبود اعتماد هوش مصنوعی | IoT Now News & Reports

گره منبع: 3068504

با مدل‌های هوش مصنوعی که قادر به شناسایی الگوها و پیش‌بینی‌هایی هستند که انجام دستی برای انسان دشوار یا غیرممکن است، برنامه‌های بالقوه برای ابزارهایی مانند GPT چت در سراسر مراقبت های بهداشتی، مالی و صنایع خدمات مشتری بسیار بزرگ است.

با این حال، در حالی که اولویت‌های سازمان‌ها در مورد هوش مصنوعی باید ارزیابی فرصت‌هایی باشد که ابزارهای هوش مصنوعی مولد به کسب‌وکارشان از نظر مزیت رقابتی ارائه می‌دهند، موضوع حفظ حریم خصوصی داده‌ها به یک نگرانی اصلی تبدیل شده است. مدیریت استفاده مسئولانه از هوش مصنوعی، با پتانسیل آن برای ایجاد نتایج مغرضانه، نیاز به بررسی دقیق دارد. 

در حالی که مزایای بالقوه این مدل‌ها بسیار زیاد است، سازمان‌ها باید ملاحظات اخلاقی و عملی را برای استفاده مسئولانه از هوش مصنوعی با حفاظت از داده‌های هوش مصنوعی ایمن و مطمئن بررسی کنند. با بهینه سازی تجربه کاربری کلی خود با ChatGPT، سازمان ها می توانند تجربه خود را بهبود بخشند قابلیت اعتماد هوش مصنوعی

نگرانی های مربوط به حریم خصوصی هوش مصنوعی 

درست مانند بسیاری از فناوری‌های پیشرفته دیگر، هوش مصنوعی بدون شک سوالات و چالش‌هایی را برای کسانی که به دنبال استفاده از آن در پشته‌های فناوری خود هستند، ایجاد خواهد کرد. در واقع یک نظرسنجی توسط پیشرفت فاش کرد که 65 درصد از کسب و کارها و مدیران فناوری اطلاعات در حال حاضر معتقدند سوگیری داده در سازمان مربوطه آنها وجود دارد و 78 درصد می گویند که با افزایش پذیرش هوش مصنوعی این وضعیت بدتر می شود. 

احتمالاً بزرگترین نگرانی حفظ حریم خصوصی در مورد استفاده از داده های شرکت خصوصی در کنار پلتفرم های هوش مصنوعی داخلی و عمومی است. به عنوان مثال، این ممکن است یک سازمان مراقبت های بهداشتی باشد که داده های محرمانه بیمار یا داده های حقوق و دستمزد کارمندان یک شرکت بزرگ را ذخیره می کند. 

برای اینکه هوش مصنوعی مؤثرتر باشد، به حجم نمونه بزرگی از داده‌های عمومی و/یا خصوصی با کیفیت بالا نیاز دارید و سازمان‌هایی که به داده‌های محرمانه دسترسی دارند، مانند شرکت‌های مراقبت‌های بهداشتی با سوابق پزشکی، در هنگام ساخت راه‌حل‌های مبتنی بر هوش مصنوعی از مزیت رقابتی برخوردار باشند. مهمتر از همه، این سازمان ها با چنین داده های حساسی باید الزامات اخلاقی و مقرراتی را در نظر بگیرند حریم خصوصی داده ها، انصاف، توضیح پذیری، شفافیت، استحکام و دسترسی.  

مدل‌های زبان بزرگ (LLM) مدل‌های هوش مصنوعی قدرتمندی هستند که بر روی داده‌های متنی برای انجام وظایف مختلف پردازش زبان طبیعی، از جمله ترجمه زبان، پاسخ به سؤال، خلاصه‌سازی و تجزیه و تحلیل احساسات آموزش دیده‌اند. این مدل‌ها برای تجزیه و تحلیل زبان به‌گونه‌ای طراحی شده‌اند که هوش انسان را تقلید کند و به آن‌ها امکان پردازش، درک و تولید گفتار انسان را می‌دهد. 

خطرات برای داده های خصوصی هنگام استفاده از هوش مصنوعی 

با این حال، با این مدل‌های پیچیده، چالش‌های اخلاقی و فنی وجود دارد که می‌تواند خطراتی را برای دقت داده‌ها، نقض حق چاپ و موارد بالقوه افترا ایجاد کند. برخی از چالش های استفاده موثر از هوش مصنوعی چت بات عبارتند از: 

  • هذیان ها - در هوش مصنوعی، توهم زمانی است که پاسخ های پر از خطا را به کاربر گزارش می دهد و همه اینها بسیار رایج هستند. روشی که LLM ها کلمه بعدی را پیش بینی می کنند، پاسخ ها را قابل قبول می کند، در حالی که اطلاعات ممکن است ناقص یا نادرست باشند. به عنوان مثال، اگر کاربر از چت بات میانگین درآمد یک رقیب را بخواهد، این اعداد ممکن است بسیار دور از ذهن باشد.  
  • سوگیری داده ها - LLM ها نیز می توانند نمایش دهند تعصبات، به این معنی که آنها می توانند نتایجی تولید کنند که به جای واقعیت عینی، سوگیری ها را در داده های آموزشی منعکس کند. برای مثال، یک مدل زبانی آموزش‌دیده بر روی مجموعه داده‌های عمدتاً مردانه ممکن است خروجی مغرضانه‌ای در رابطه با موضوعات جنسیتی ایجاد کند. 
  • استدلال / درک - LLM ها همچنین ممکن است برای کارهایی که نیاز به استدلال عمیق تر یا درک مفاهیم پیچیده دارند به کمک نیاز داشته باشند. یک LLM می تواند برای پاسخ دادن به سوالاتی که به درک دقیقی از فرهنگ یا تاریخ نیاز دارند آموزش ببیند. اگر مدل ها به طور موثر آموزش نبینند و نظارت نشوند ممکن است کلیشه ها را تداوم بخشند یا اطلاعات نادرست ارائه دهند. 

علاوه بر اینها، خطرات دیگری نیز می تواند شامل Data Cutoffs باشد، یعنی زمانی که حافظه یک مدل قدیمی می شود. چالش احتمالی دیگر این است که بفهمیم چگونه LLM پاسخ خود را ایجاد کرده است زیرا هوش مصنوعی به طور موثر برای نشان دادن استدلال خود برای ساختن پاسخ آموزش داده نشده است. 

استفاده از دانش معنایی برای ارائه داده های قابل اعتماد 

تیم های فنی به دنبال کمک برای استفاده از داده های خصوصی برای ChatGPT هستند. علیرغم افزایش دقت و کارایی، LLMها، نه به ذکر کاربرانشان، هنوز هم می توانند برای پاسخ به کمک نیاز داشته باشند. به خصوص از آنجایی که داده ها می توانند فاقد زمینه و معنا باشند. راه حل مدیریت دانش هوش مصنوعی قوی، ایمن، شفاف و کنترل شده، پاسخ این سوال است. با استفاده از پلتفرم داده های معنایی، کاربران می توانند ضمن معرفی حاکمیت، دقت و کارایی را افزایش دهند.  

با دستیابی به پاسخی که ترکیبی از پاسخ ChatGPT تأیید شده با دانش معنایی از یک پلت فرم داده معنایی است، نتایج ترکیبی به LLM ها و کاربران اجازه می دهد تا به راحتی به نتایج در برابر محتوای منبع و دانش SME جذب شده دسترسی داشته باشند و واقعیت را بررسی کنند. 

این به ابزار هوش مصنوعی اجازه می‌دهد تا داده‌های ساختاریافته و بدون ساختار را ذخیره کند و پرس و جو کند و همچنین محتوای متخصص موضوع (SME) را از طریق رابط کاربری گرافیکی بصری خود جذب کند. با استخراج حقایق موجود در داده ها و برچسب گذاری داده های خصوصی با دانش معنایی، سؤالات یا ورودی های کاربر و پاسخ های ChatGPT خاص نیز می توانند با این دانش برچسب گذاری شوند.  

حفاظت از داده های حساس می تواند پتانسیل واقعی هوش مصنوعی را باز کند 

مانند تمام فناوری‌ها، محافظت در برابر ورودی‌ها یا موقعیت‌های غیرمنتظره در LLM‌ها حتی مهم‌تر است. در رسیدگی موفقیت آمیز به این چالش ها، قابل اعتماد بودن راه حل های ما همراه با رضایت کاربر افزایش می یابد که در نهایت منجر به موفقیت راه حل می شود. 

به عنوان اولین گام در کاوش در استفاده از هوش مصنوعی برای سازمان خود، متخصصان فناوری اطلاعات و امنیت باید به دنبال راه‌هایی برای محافظت از داده‌های حساس باشند و در عین حال از آن‌ها برای بهینه‌سازی نتایج برای سازمان و مشتریانش استفاده کنند. 

Matthieu Jonglez، یک معاون فناوری - برنامه کاربردی و پلت فرم داده در Progress.Matthieu Jonglez، یک معاون فناوری - برنامه کاربردی و پلت فرم داده در Progress.

مقاله توسط Matthieu Jonglez، یک VP فناوری – برنامه کاربردی و پلت فرم داده در پیش رفتنss

در مورد این مقاله در زیر یا از طریق X نظر دهید: @IoTNow_

تمبر زمان:

بیشتر از اینترنت اشیا در حال حاضر