کنارے پر بنیادی ماڈلز - IBM بلاگ

کنارے پر بنیادی ماڈلز - IBM بلاگ

ماخذ نوڈ: 2891323

کنارے پر بنیادی ماڈلز - IBM بلاگ



عمارت کا فضائی منظر

فاؤنڈیشن ماڈلز (FMs) میں ایک نئے دور کا آغاز کر رہے ہیں۔ مشین لرننگ (ایم ایل) اور مصنوعی انٹیلی جنس (AI)، جو AI کی تیز تر ترقی کی طرف لے جا رہا ہے جسے نیچے دھارے کے کاموں کی ایک وسیع رینج میں ڈھال لیا جا سکتا ہے اور ایپلی کیشنز کی ایک صف کے لیے ٹھیک بنایا جا سکتا ہے۔ 

ڈیٹا کی پروسیسنگ کی بڑھتی ہوئی اہمیت کے ساتھ جہاں کام کیا جا رہا ہے، انٹرپرائز کے کنارے پر AI ماڈلز کو پیش کرنا ڈیٹا کی خودمختاری اور رازداری کے تقاضوں کی پابندی کرتے ہوئے، قریب قریب حقیقی وقت کی پیشین گوئیوں کو قابل بناتا ہے۔ کو ملا کر آئی بی ایم واٹسنکس ایج کمپیوٹنگ کے ساتھ ایف ایم کے لیے ڈیٹا اور اے آئی پلیٹ فارم کی صلاحیتیں، انٹرپرائزز آپریشنل ایج پر ایف ایم فائن ٹیوننگ اور انفرنسنگ کے لیے اے آئی ورک لوڈز چلا سکتے ہیں۔ یہ کاروباری اداروں کو اس قابل بناتا ہے کہ وہ کنارے پر AI کی تعیناتیوں کو پیمانہ کر سکے، تیز تر رسپانس ٹائمز کے ساتھ تعیناتی کے وقت اور لاگت کو کم کرتا ہے۔

براہ کرم ایج کمپیوٹنگ پر بلاگ پوسٹس کی اس سیریز میں تمام قسطوں کو دیکھنا یقینی بنائیں:

بنیادی ماڈل کیا ہیں؟

فاؤنڈیشن ماڈلز (FMs)، جو بڑے پیمانے پر بغیر لیبل والے ڈیٹا کے وسیع سیٹ پر تربیت یافتہ ہیں، جدید ترین مصنوعی ذہانت (AI) ایپلی کیشنز چلا رہے ہیں۔ انہیں بہاوی کاموں کی ایک وسیع رینج میں ڈھال لیا جا سکتا ہے اور ایپلی کیشنز کی ایک صف کے لیے ٹھیک بنایا جا سکتا ہے۔ جدید AI ماڈلز، جو ایک ہی ڈومین میں مخصوص کام انجام دیتے ہیں، FMs کو راستہ دے رہے ہیں کیونکہ وہ عام طور پر زیادہ سیکھتے ہیں اور ڈومینز اور مسائل میں کام کرتے ہیں۔ جیسا کہ نام سے پتہ چلتا ہے، ایک FM AI ماڈل کی بہت سی ایپلی کیشنز کی بنیاد بن سکتا ہے۔

FMs دو اہم چیلنجوں سے نمٹتے ہیں جنہوں نے کاروباری اداروں کو AI کو اپنانے سے روک رکھا ہے۔ سب سے پہلے، انٹرپرائزز بغیر لیبل والے ڈیٹا کی ایک بڑی مقدار تیار کرتے ہیں، جس کا صرف ایک حصہ AI ماڈل ٹریننگ کے لیے لیبل لگایا جاتا ہے۔ دوسرا، یہ لیبلنگ اور تشریح کا کام انتہائی انسانی کام ہے، جس میں اکثر ایک موضوع کے ماہر (SME) کے کئی سیکڑوں گھنٹے کی ضرورت ہوتی ہے۔ اس سے استعمال کے کیسز میں پیمائش کرنا لاگت سے ممنوع ہو جاتا ہے کیونکہ اس کے لیے SMEs اور ڈیٹا ماہرین کی فوج درکار ہوتی ہے۔ بغیر لیبل والے ڈیٹا کی بڑی مقدار کو ہضم کرکے اور ماڈل ٹریننگ کے لیے خود زیر نگرانی تکنیکوں کا استعمال کرتے ہوئے، FMs نے ان رکاوٹوں کو دور کر دیا ہے اور پورے انٹرپرائز میں AI کو وسیع پیمانے پر اپنانے کا راستہ کھول دیا ہے۔ ڈیٹا کی یہ بڑی مقدار جو ہر کاروبار میں موجود ہے بصیرت کو چلانے کے لیے جاری کیے جانے کا انتظار کر رہی ہے۔

بڑے زبان کے ماڈل کیا ہیں؟

بڑے لینگویج ماڈلز (LLMs) فاؤنڈیشنل ماڈلز (FM) کی ایک کلاس ہیں جو تہوں پر مشتمل ہوتی ہیں۔ نیند نیٹ ورک جنہیں بغیر لیبل والے ڈیٹا کی ان بڑی مقدار پر تربیت دی گئی ہے۔ وہ مختلف قسم کے انجام دینے کے لیے خود زیر نگرانی سیکھنے کے الگورتھم استعمال کرتے ہیں۔ قدرتی زبان پروسیسنگ (NLP) کام ایسے طریقوں سے جو انسانوں کے زبان استعمال کرنے کے طریقے سے ملتے جلتے ہیں (تصویر 1 دیکھیں)۔

شکل 1. بڑے لینگویج ماڈلز (LLMs) نے AI کے میدان کو طوفان کے ساتھ لے لیا ہے۔
شکل 1. بڑے لینگویج ماڈلز (LLMs) نے AI کے میدان کو طوفان کے ساتھ لے لیا ہے۔

AI کے اثرات کو پیمانہ اور تیز کریں۔

فاؤنڈیشنل ماڈل (FM) کی تعمیر اور تعیناتی کے کئی مراحل ہیں۔ ان میں ڈیٹا انجیکشن، ڈیٹا سلیکشن، ڈیٹا پری پروسیسنگ، ایف ایم پری ٹریننگ، ایک یا زیادہ ڈاون اسٹریم ٹاسک کے لیے ماڈل ٹیوننگ، انفرنس سرونگ، اور ڈیٹا اور اے آئی ماڈل گورننس اور لائف سائیکل مینجمنٹ شامل ہیں۔ FMOps.

اس سب میں مدد کرنے کے لیے، IBM کاروباری اداروں کو ان FMs کی طاقت سے فائدہ اٹھانے کے لیے ضروری ٹولز اور صلاحیتیں پیش کر رہا ہے۔ آئی بی ایم واٹسنکس، ایک انٹرپرائز کے لیے تیار AI اور ڈیٹا پلیٹ فارم جس کو ایک انٹرپرائز میں AI کے اثرات کو بڑھانے کے لیے ڈیزائن کیا گیا ہے۔ IBM watsonx مندرجہ ذیل پر مشتمل ہے:

  1. IBM watsonx.ai نیا لاتا ہے پیدا کرنے والا AI صلاحیتیں—FMs اور روایتی مشین لرننگ (ML) کے ذریعے تقویت یافتہ—ایک طاقتور اسٹوڈیو میں جو AI لائف سائیکل پر محیط ہے۔
  2. IBM watsonx.data کسی بھی جگہ، آپ کے تمام ڈیٹا کے لیے AI کام کے بوجھ کو پیمانہ کرنے کے لیے ایک کھلے لیک ہاؤس فن تعمیر پر بنایا گیا ایک مناسب مقصد کے لیے ڈیٹا اسٹور ہے۔
  3. IBM watsonx.governance ایک اینڈ ٹو اینڈ خودکار AI لائف سائیکل گورننس ٹول کٹ ہے جو ذمہ دار، شفاف اور قابل وضاحت AI ورک فلو کو فعال کرنے کے لیے بنائی گئی ہے۔

ایک اور اہم ویکٹر انٹرپرائز کے کنارے پر کمپیوٹنگ کی بڑھتی ہوئی اہمیت ہے، جیسے صنعتی مقامات، مینوفیکچرنگ فلورز، ریٹیل اسٹورز، ٹیلکو ایج سائٹس وغیرہ۔ مزید خاص طور پر، انٹرپرائز ایج پر AI ڈیٹا کی پروسیسنگ کو قابل بناتا ہے جہاں کام کیا جا رہا ہے۔ ریئل ٹائم تجزیہ کے قریب۔ انٹرپرائز ایج وہ جگہ ہے جہاں انٹرپرائز ڈیٹا کی بڑی مقدار تیار کی جا رہی ہے اور جہاں AI قابل قدر، بروقت اور قابل عمل کاروباری بصیرت فراہم کر سکتا ہے۔

AI ماڈلز کو کنارے پر پیش کرنا ڈیٹا کی خودمختاری اور رازداری کے تقاضوں کی پابندی کرتے ہوئے قریب قریب حقیقی وقت کی پیشین گوئیوں کو قابل بناتا ہے۔ یہ انسپکشن ڈیٹا کے حصول، ٹرانسمیشن، ٹرانسفارمیشن اور پروسیسنگ سے وابستہ تاخیر کو نمایاں طور پر کم کرتا ہے۔ کنارے پر کام کرنا ہمیں حساس انٹرپرائز ڈیٹا کی حفاظت کرنے اور تیز تر رسپانس ٹائم کے ساتھ ڈیٹا کی منتقلی کے اخراجات کو کم کرنے کی اجازت دیتا ہے۔

کنارے پر اے آئی کی تعیناتیوں کی پیمائش کرنا، تاہم، ڈیٹا (متضاد، حجم اور ریگولیٹری) اور محدود وسائل (کمپیوٹ، نیٹ ورک کنیکٹیویٹی، اسٹوریج اور یہاں تک کہ آئی ٹی کی مہارت) سے متعلق چیلنجز کے درمیان کوئی آسان کام نہیں ہے۔ ان کو وسیع طور پر دو اقسام میں بیان کیا جا سکتا ہے:

  • تعینات کرنے کا وقت/لاگت: ہر تعیناتی ہارڈ ویئر اور سافٹ ویئر کی کئی پرتوں پر مشتمل ہوتی ہے جنہیں تعیناتی سے پہلے انسٹال، کنفیگر اور ٹیسٹ کرنے کی ضرورت ہوتی ہے۔ آج، ایک سروس پروفیشنل انسٹالیشن میں ایک یا دو ہفتے لگ سکتے ہیں۔ ہر مقام پر، سختی سے محدود کرنا کہ کس حد تک تیز رفتار اور لاگت کے ساتھ کاروباری ادارے اپنی تنظیم میں تعیناتیوں کو بڑھا سکتے ہیں۔                                  
  • دن 2 کا انتظام: تعینات کناروں کی بڑی تعداد اور ہر تعیناتی کے جغرافیائی محل وقوع کی وجہ سے ان تعیناتیوں کی نگرانی، دیکھ بھال اور اپ ڈیٹ کرنے کے لیے ہر مقام پر مقامی IT سپورٹ فراہم کرنا اکثر مہنگا ہو جاتا ہے۔

ایج اے آئی کی تعیناتیاں

IBM نے ایک ایج فن تعمیر تیار کیا ہے جو AI کی تعیناتیوں کے لیے ایک مربوط ہارڈ ویئر/سافٹ ویئر (HW/SW) آلات ماڈل لا کر ان چیلنجوں کو حل کرتا ہے۔ یہ کئی کلیدی نمونوں پر مشتمل ہے جو AI کی تعیناتیوں کی توسیع پذیری میں مدد کرتے ہیں:

  • مکمل سافٹ ویئر اسٹیک کی پالیسی پر مبنی، زیرو ٹچ پروویژننگ۔
  • کنارے کے نظام کی صحت کی مسلسل نگرانی
  • سافٹ ویئر/سیکیورٹی/کنفیگریشن اپڈیٹس کو متعدد کنارے والے مقامات پر منظم کرنے اور آگے بڑھانے کی صلاحیتیں— یہ سب دن-2 کے انتظام کے لیے مرکزی کلاؤڈ پر مبنی مقام سے ہیں۔

ایک تقسیم شدہ حب اور اسپوک فن تعمیر کو کنارے پر انٹرپرائز AI کی تعیناتیوں کو پیمانے کے لیے استعمال کیا جا سکتا ہے، جس میں ایک مرکزی کلاؤڈ یا انٹرپرائز ڈیٹا سینٹر ایک مرکز کے طور پر کام کرتا ہے اور کنارے کے اندر ایک باکس کا سامان ایک کنارے کے مقام پر اسپوک کے طور پر کام کرتا ہے۔. ہائبرڈ کلاؤڈ اور کنارے کے ماحول میں پھیلا ہوا یہ حب اور اسپاک ماڈل، FM آپریشنز کے لیے درکار وسائل کو بہترین طریقے سے استعمال کرنے کے لیے ضروری توازن کو بہترین انداز میں بیان کرتا ہے (شکل 2 دیکھیں)۔

شکل 2. کناروں کے مقامات پر انٹرپرائز AI کے لیے ایک حب اور اسپوک تعیناتی ترتیب۔
شکل 2. کناروں کے مقامات پر انٹرپرائز AI کے لیے ایک حب اور اسپوک تعیناتی ترتیب۔

ان بیس بڑے لینگویج ماڈلز (LLMs) اور دیگر قسم کے فاؤنڈیشن ماڈلز کی پہلے سے تربیت کے لیے وسیع پیمانے پر بغیر لیبل والے ڈیٹاسیٹس پر خود زیر نگرانی تکنیکوں کا استعمال کرتے ہوئے اکثر اہم کمپیوٹ (GPU) وسائل کی ضرورت ہوتی ہے اور یہ ایک مرکز میں بہترین کارکردگی کا مظاہرہ کرتا ہے۔ عملی طور پر لامحدود کمپیوٹ وسائل اور بڑے ڈیٹا کے ڈھیر جو اکثر کلاؤڈ میں محفوظ ہوتے ہیں بڑے پیرامیٹر ماڈلز کی پری ٹریننگ اور ان بنیادی فاؤنڈیشن ماڈلز کی درستگی میں مسلسل بہتری کی اجازت دیتے ہیں۔

دوسری طرف، ان بیس FMs کی ڈاون اسٹریم کاموں کے لیے ٹیوننگ — جس کے لیے صرف چند دسیوں یا سینکڑوں لیبل والے ڈیٹا کے نمونے اور انفرنس سرونگ کی ضرورت ہوتی ہے — کو انٹرپرائز کے کنارے پر صرف چند GPUs کے ساتھ پورا کیا جا سکتا ہے۔ یہ حساس لیبل والے ڈیٹا (یا انٹرپرائز کراؤن جیول ڈیٹا) کو انٹرپرائز آپریشنل ماحول میں محفوظ طریقے سے رہنے کی اجازت دیتا ہے اور ڈیٹا کی منتقلی کے اخراجات کو بھی کم کرتا ہے۔

ایپلیکیشنز کو کنارے پر تعینات کرنے کے لیے ایک مکمل اسٹیک اپروچ کا استعمال کرتے ہوئے، ایک ڈیٹا سائنسدان ماڈلز کی ٹھیک ٹیوننگ، جانچ اور تعیناتی انجام دے سکتا ہے۔ یہ ایک ہی ماحول میں مکمل کیا جا سکتا ہے جبکہ نئے AI ماڈلز کو آخری صارفین تک پہنچانے کے لیے ڈیولپمنٹ لائف سائیکل کو سکڑ کر۔ Red Hat OpenShift Data Science (RHODS) اور حال ہی میں اعلان کردہ Red Hat OpenShift AI جیسے پلیٹ فارمز پروڈکشن کے لیے تیار AI ماڈلز کو تیزی سے تیار کرنے اور تعینات کرنے کے لیے ٹولز فراہم کرتے ہیں۔ تقسیم شدہ بادل اور کنارے کے ماحول۔

آخر میں، انٹرپرائز کے کنارے پر فائن ٹیونڈ AI ماڈل کی خدمت کرنا ڈیٹا کے حصول، ٹرانسمیشن، ٹرانسفارمیشن اور پروسیسنگ سے وابستہ تاخیر کو نمایاں طور پر کم کرتا ہے۔ کلاؤڈ میں پری ٹریننگ کو ٹھیک ٹیوننگ اور کنارے پر اندازہ لگانے سے مجموعی آپریشنل لاگت کو کم کر کے مطلوبہ وقت اور ڈیٹا کی نقل و حرکت کے اخراجات کو کسی بھی قیاس کام سے منسلک کیا جاتا ہے (شکل 3 دیکھیں)۔

شکل 3. FM فائن ٹیوننگ کے لیے ویلیو پروپوزیشن اور آپریشنل کنارے پر ایک باکس کے ساتھ ایک کنارہ۔ ڈرون امیجری ان پٹس کا استعمال کرتے ہوئے قریب قریب حقیقی وقت میں خرابی کا پتہ لگانے والی بصیرت کے لیے ایسے ایف ایم ماڈل کو تعینات کرنے والے سول انجینئر کے ساتھ ایک مثالی استعمال کا معاملہ۔
شکل 3. FM فائن ٹیوننگ کے لیے ویلیو پروپوزیشن اور آپریشنل کنارے پر ایک باکس کے ساتھ ایک کنارہ۔ ڈرون امیجری ان پٹس کا استعمال کرتے ہوئے قریب قریب حقیقی وقت میں خرابی کا پتہ لگانے والی بصیرت کے لیے ایسے ایف ایم ماڈل کو تعینات کرنے والے سول انجینئر کے ساتھ ایک مثالی استعمال کا معاملہ۔

اس قدر کی تجویز کو آخر سے آخر تک ظاہر کرنے کے لیے، سول انفراسٹرکچر کے لیے ایک مثالی وژن-ٹرانسفارمر پر مبنی فاؤنڈیشن ماڈل (عوامی اور کسٹم انڈسٹری کے مخصوص ڈیٹاسیٹس کا استعمال کرتے ہوئے پہلے سے تربیت یافتہ) کو تین نوڈ کنارے پر اندازہ لگانے کے لیے ٹھیک بنایا گیا اور تعینات کیا گیا۔ (بولی) کلسٹر۔ سافٹ ویئر اسٹیک میں Red Hat OpenShift کنٹینر پلیٹ فارم اور Red Hat OpenShift ڈیٹا سائنس شامل ہے۔ یہ ایج کلسٹر ریڈ ہیٹ ایڈوانسڈ کلسٹر مینجمنٹ فار کوبرنیٹس (RHACM) ہب کے کلاؤڈ میں چلنے کی مثال سے بھی منسلک تھا۔

زیرو ٹچ پروویژننگ

پالیسی پر مبنی، زیرو ٹچ پروویژننگ Red Hat Advanced Cluster Management for Kubernetes (RHACM) کے ساتھ پالیسیوں اور پلیسمنٹ ٹیگز کے ذریعے کی گئی تھی، جو مخصوص ایج کلسٹرز کو سافٹ ویئر کے اجزاء اور کنفیگریشنز کے سیٹ سے منسلک کرتے ہیں۔ یہ سافٹ ویئر کے اجزاء—مکمل اسٹیک میں پھیلے ہوئے اور کمپیوٹ، اسٹوریج، نیٹ ورک اور AI کام کے بوجھ کا احاطہ کرتے ہوئے—مختلف OpenShift آپریٹرز، مطلوبہ ایپلیکیشن سروسز کی فراہمی، اور S3 بالٹی (اسٹوریج) کا استعمال کرتے ہوئے انسٹال کیے گئے تھے۔

سول انفراسٹرکچر کے لیے پہلے سے تربیت یافتہ فاؤنڈیشن ماڈل (FM) کو Red Hat OpenShift Data Science (RHODS) کے اندر ایک Jupyter Notebook کے ذریعے کنکریٹ کے پلوں پر پائے جانے والے چھ قسم کے نقائص کی درجہ بندی کرنے کے لیے لیبل والے ڈیٹا کا استعمال کرتے ہوئے ٹھیک بنایا گیا تھا۔ ٹرائٹن سرور کا استعمال کرتے ہوئے اس فائن ٹیونڈ ایف ایم کی انفرنس سرونگ کا بھی مظاہرہ کیا گیا۔ مزید برآں، اس ایج سسٹم کی صحت کی نگرانی کو کلاؤڈ میں موجود مرکزی RHACM ڈیش بورڈ تک پرومیتھیس کے ذریعے ہارڈ ویئر اور سافٹ ویئر کے اجزاء سے مشاہداتی میٹرکس کو جمع کرکے ممکن بنایا گیا۔ سول انفراسٹرکچر انٹرپرائزز ان FMs کو اپنے کنارے والے مقامات پر تعینات کر سکتے ہیں اور ڈرون امیجری کا استعمال قریب قریب حقیقی وقت میں نقائص کا پتہ لگانے کے لیے کر سکتے ہیں- وقت سے بصیرت کو تیز کرتے ہوئے اور ہائی ڈیفینیشن ڈیٹا کی بڑی مقدار کو کلاؤڈ پر اور اس سے منتقل کرنے کی لاگت کو کم کر سکتے ہیں۔

خلاصہ

مرکب آئی بی ایم واٹسنکس ڈیٹا اور AI پلیٹ فارم کی صلاحیتیں فاؤنڈیشن ماڈلز (FMs) کے لیے ایک ایج-اِن-اے-باکس اپلائنس کے ساتھ انٹرپرائزز کو FM فائن ٹیوننگ اور آپریشنل ایج پر انفرنسنگ کے لیے AI ورک لوڈز چلانے کی اجازت دیتی ہے۔ یہ آلات پیچیدہ استعمال کے معاملات کو باکس سے باہر ہینڈل کر سکتا ہے، اور یہ مرکزی انتظام، آٹومیشن اور سیلف سروس کے لیے حب اور اسپوک فریم ورک بناتا ہے۔ Edge FM کی تعیناتیوں کو دہرائی جانے والی کامیابی، اعلیٰ لچک اور سلامتی کے ساتھ ہفتوں سے گھنٹوں تک کم کیا جا سکتا ہے۔

بنیادی ماڈلز کے بارے میں مزید جانیں۔

براہ کرم ایج کمپیوٹنگ پر بلاگ پوسٹس کی اس سیریز میں تمام قسطوں کو دیکھنا یقینی بنائیں:

اقسام

کلاؤڈ سے مزید

Temenos بینکوں کو تبدیل کرنے میں مدد کے لیے IBM Cloud میں ادائیگیوں کی اختراعی صلاحیتیں لاتا ہے۔

3 کم سے کم پڑھیں - ادائیگیوں کا ماحولیاتی نظام تبدیلی کے لیے ایک موڑ پر ہے، اور ہمیں یقین ہے کہ اب تبدیلی کا وقت ہے۔ جیسا کہ بینک اپنے ادائیگیوں کے سفر کو جدید بنانا چاہتے ہیں، Temenos Payments Hub IBM Cloud for Financial Services® پر ادائیگیوں کی اختراعی صلاحیتوں کی فراہمی کے لیے پہلا وقف شدہ ادائیگیوں کا حل بن گیا ہے—ایک صنعت کے لیے مخصوص پلیٹ فارم جو مالیاتی اداروں کی ڈیجیٹل تبدیلیوں کو تیز کرنے کے لیے ڈیزائن کیا گیا ہے۔ سب سے آگے یہ ہماری طویل تاریخ کا تازہ ترین اقدام ہے جو کلائنٹس کو تبدیل کرنے میں مدد کرتا ہے۔ Temenos ادائیگیوں کے ساتھ…

ادائیگیوں کی جدیدیت کی اگلی لہر: کسٹمر کے تجربے کو بلند کرنے کے لیے پیچیدگی کو کم کرنا

3 کم سے کم پڑھیں - ادائیگیوں کا ایکو سسٹم تبدیلی کے لیے ایک موڑ پر ہے، خاص طور پر جب ہم رکاوٹ ڈالنے والے ڈیجیٹل داخلوں میں اضافہ دیکھ رہے ہیں جو ادائیگی کے نئے طریقے متعارف کروا رہے ہیں، جیسے کرپٹو کرنسی اور مرکزی بینک کی ڈیجیٹل کرنسیوں (CDBC)۔ صارفین کے لیے مزید انتخاب کے ساتھ، بٹوے کا حصہ حاصل کرنا روایتی بینکوں کے لیے زیادہ مسابقتی ہوتا جا رہا ہے۔ یہ بہت سی مثالوں میں سے صرف ایک ہے جو ظاہر کرتی ہے کہ ادائیگی کی جگہ کس طرح تیار ہوئی ہے۔ ایک ہی وقت میں، ہم تیزی سے دیکھ رہے ہیں کہ ریگولیٹرز انڈسٹری کی زیادہ قریب سے نگرانی کرتے ہیں…

IBM کنیکٹڈ ٹریڈ پلیٹ فارم تجارت اور سپلائی چین فنانسنگ کی ڈیجیٹلائزیشن میں مدد کرتا ہے۔

4 کم سے کم پڑھیں - آج، ہم تجارت اور سپلائی چین فنانسنگ کے کاروبار میں نمایاں ڈیجیٹل رکاوٹ دیکھ رہے ہیں جو کہ زیادہ تر عالمی واقعات اور جغرافیائی سیاست، بدلتے ہوئے ضوابط، تعمیل اور کنٹرول کی ضروریات، ٹیکنالوجی اور اختراع میں ترقی، اور سرمائے تک رسائی سے متاثر ہے۔ جب ان خلل ڈالنے والوں کا مزید باریک بینی سے جائزہ لیا جائے تو یہ واضح ہے کہ بہت سے عوامل ہیں جو عالمی تجارت اور سپلائی چین فنانسنگ کو متاثر کر سکتے ہیں۔ یہ بلند افراط زر (جس میں مارجن کا سبب بننے کی صلاحیت ہے…

نجی VPC نیٹ ورک میں RHEL پر SSH سیشن کو محفوظ طریقے سے ریکارڈ کریں۔

5 کم سے کم پڑھیں - اس بلاگ پوسٹ میں، آپ سیکھیں گے کہ ان بلٹ پیکجز کا استعمال کرتے ہوئے پرائیویٹ وی پی سی نیٹ ورک میں Red Hat Enterprise Linux (RHEL) VSI پر SSH سیشن کیسے ریکارڈ کرنا ہے۔ VPC نجی نیٹ ورک کا انتظام Terraform کے ذریعے کیا گیا ہے اور RHEL پیکجز جوابی آٹومیشن کا استعمال کرتے ہوئے انسٹال کیے گئے ہیں۔ مزید برآں، آپ یہ سیکھیں گے کہ کس طرح ایک انتہائی دستیاب گڑھ میزبان کو ترتیب دیا جائے۔ سیشن ریکارڈنگ کیا ہے اور اس کی ضرورت کیوں ہے؟ ایک گڑھ میزبان اور ایک جمپ سرور دونوں حفاظتی میکانزم ہیں جو نیٹ ورک میں استعمال ہوتے ہیں اور…

ٹائم اسٹیمپ:

سے زیادہ IBM