দ্বারা ফোটো মাইকেচি এসপারাগোজা
প্রতিদিন, আমরা বেশিরভাগ সময় লেবেলবিহীন পাঠ্য নিয়ে কাজ করি এবং তত্ত্বাবধানে শেখার অ্যালগরিদমগুলি ডেটা থেকে তথ্য বের করতে মোটেও ব্যবহার করা যায় না। প্রাকৃতিক ভাষার একটি সাবফিল্ড বৃহৎ পরিমাণে পাঠ্যের অন্তর্নিহিত কাঠামো প্রকাশ করতে পারে। এই শৃঙ্খলাটিকে টপিক মডেলিং বলা হয়, যা পাঠ্য থেকে বিষয়গুলি বের করার ক্ষেত্রে বিশেষ।
এই প্রেক্ষাপটে, প্রচলিত পন্থা, যেমন সুপ্ত ডিরিচলেট বরাদ্দকরণ এবং অ-নেতিবাচক ম্যাট্রিক্স ফ্যাক্টরাইজেশন, শব্দগুলির মধ্যে সম্পর্কগুলিকে ভালভাবে ক্যাপচার করতে পারে না কারণ তারা শব্দের উপর ভিত্তি করে।
এই কারণে, আমরা দুটি প্রতিশ্রুতিবদ্ধ পদ্ধতির উপর ফোকাস করতে যাচ্ছি, Top2Vec এবং BERTopic, যা বিষয়গুলি তৈরি করার জন্য প্রাক-প্রশিক্ষিত ভাষার মডেলগুলিকে কাজে লাগিয়ে এই ত্রুটিগুলি সমাধান করে। চল শুরু করি!
Top2Vec একটি মডেল যা প্রাক-প্রশিক্ষিত শব্দ ভেক্টর ব্যবহার করে এবং অর্থপূর্ণ এমবেডেড বিষয়, নথি এবং শব্দ ভেক্টর তৈরি করে পাঠ্য থেকে স্বয়ংক্রিয়ভাবে বিষয়গুলি সনাক্ত করতে সক্ষম।
এই পদ্ধতিতে, বিষয়গুলি বের করার পদ্ধতিটি বিভিন্ন ধাপে বিভক্ত করা যেতে পারে:
- শব্দার্থিক এম্বেডিং তৈরি করুন: যৌথভাবে এমবেডেড নথি এবং শব্দ ভেক্টর তৈরি করা হয়। ধারণাটি হল যে অনুরূপ নথিগুলি এমবেডিং স্পেসের কাছাকাছি হওয়া উচিত, যখন ভিন্ন নথিগুলি তাদের মধ্যে দূরে থাকা উচিত।
- ডকুমেন্ট এমবেডিং এর মাত্রিকতা হ্রাস করুন: উচ্চমাত্রিক স্থান হ্রাস করার সময় নথির এমবেডিংয়ের বেশিরভাগ পরিবর্তনশীলতা সংরক্ষণের জন্য মাত্রিকতা হ্রাস পদ্ধতির প্রয়োগ গুরুত্বপূর্ণ। অধিকন্তু, এটি ঘন এলাকা সনাক্ত করার অনুমতি দেয়, যেখানে প্রতিটি বিন্দু একটি নথি ভেক্টর প্রতিনিধিত্ব করে। UMAP হল এই ধাপে বেছে নেওয়া সাধারণ মাত্রিকতা হ্রাস পদ্ধতি কারণ এটি উচ্চ-মাত্রিক ডেটার স্থানীয় এবং বৈশ্বিক কাঠামো সংরক্ষণ করতে সক্ষম।
- নথির ক্লাস্টার সনাক্ত করুন: HDBScan, একটি ঘনত্ব-ভিত্তিক ক্লাস্টারিং পদ্ধতি, অনুরূপ নথির ঘন এলাকা খুঁজে পেতে প্রয়োগ করা হয়। প্রতিটি নথি যদি ঘন ক্লাস্টারে না থাকে তাহলে শব্দ হিসেবে বা লেবেল হিসেবে বরাদ্দ করা হয় যদি এটি ঘন এলাকার অন্তর্গত হয়।
- মূল এম্বেডিং স্পেসে সেন্ট্রোয়েড গণনা করুন: সেন্ট্রোয়েড কম এম্বেডিং স্থানের পরিবর্তে উচ্চ মাত্রিক স্থান বিবেচনা করে গণনা করা হয়। ক্লাসিক কৌশলটি HDBSCAN এর সাথে পূর্ববর্তী ধাপে প্রাপ্ত একটি ঘন অঞ্চলের অন্তর্গত সমস্ত নথি ভেক্টরের গাণিতিক গড় গণনা করে। এইভাবে, প্রতিটি ক্লাস্টারের জন্য একটি বিষয় ভেক্টর তৈরি করা হয়।
- প্রতিটি বিষয় ভেক্টর জন্য শব্দ খুঁজুন: নথি ভেক্টরের নিকটতম শব্দ ভেক্টর শব্দার্থগতভাবে সর্বাধিক প্রতিনিধিত্ব করে।
Top2Vec এর উদাহরণ
এই টিউটোরিয়ালে, আমরা ম্যাকডোনাল্ডস-এর নেতিবাচক পর্যালোচনাগুলি বিশ্লেষণ করতে যাচ্ছি data.world. এই পর্যালোচনাগুলি থেকে বিষয়গুলি সনাক্ত করা বহুজাতিকদের জন্য মূল্যবান হতে পারে পণ্যগুলিকে উন্নত করতে এবং এই ফাস্ট ফুড চেইনের সংস্থার ইউএসএ অবস্থানগুলিতে ডেটা দ্বারা প্রদত্ত৷
import pandas as pd
from top2vec import Top2Vec file_path = "McDonalds-Yelp-Sentiment-DFE.csv"
df = pd.read_csv( file_path, usecols=["_unit_id", "city", "review"], encoding="unicode_escape",
)
df.head()
docs_bad = df["review"].values.tolist()
কোডের একক লাইনে, আমরা top2vec এর সমস্ত ধাপগুলি পূর্বে ব্যাখ্যা করতে যাচ্ছি।
topic_model = Top2Vec( docs_bad, embedding_model="universal-sentence-encoder", speed="deep-learn", tokenizer=tok, ngram_vocab=True, ngram_vocab_args={"connector_words": "phrases.ENGLISH_CONNECTOR_WORDS"},
)
Top2Vec এর প্রধান আর্গুমেন্ট হল:
- docs_bad: স্ট্রিংগুলির একটি তালিকা।
- universal-sentence-encoder: হল নির্বাচিত প্রাক-প্রশিক্ষিত এমবেডিং মডেল।
- deep-learn: একটি প্যারামিটার যা উত্পাদিত নথি ভেক্টরের গুণমান নির্ধারণ করে।
topic_model.get_num_topics() #3
topic_words, word_scores, topic_nums = topic_model.get_topics(3) for topic in topic_nums: topic_model.generate_topic_wordcloud(topic)
বেশিরভাগ
মেঘ শব্দ থেকে, আমরা অনুমান করতে পারি যে টপিক 0 ম্যাকডোনাল্ডের পরিষেবা সম্পর্কে সাধারণ অভিযোগ, যেমন "ধীরগতির পরিষেবা", "ভয়াবহ পরিষেবা" এবং "অর্ডার ভুল" সম্পর্কে, যেখানে টপিক 1 এবং 2 যথাক্রমে প্রাতঃরাশের খাবার ( ম্যাকমাফিন, বিস্কুট, ডিম) এবং কফি (আইসড কফি এবং কাপ কফি)।
এখন, আমরা দুটি কীওয়ার্ড ব্যবহার করে নথি অনুসন্ধান করার চেষ্টা করি, ভুল এবং ধীর:
( documents, document_scores, document_ids,
) = topic_model.search_documents_by_keywords( keywords=["wrong", "slow"], num_docs=5
)
for doc, score, doc_id in zip(documents, document_scores, document_ids): print(f"Document: {doc_id}, Score: {score}") print("-----------") print(doc) print("-----------") print()
আউটপুট:
Document: 707, Score: 0.5517634093633295
-----------
horrible.... that is all. do not go there.
----------- Document: 930, Score: 0.4242547340973836
-----------
no drive through :-/
----------- Document: 185, Score: 0.39162203345993046
-----------
the drive through line is terrible. they are painfully slow.
----------- Document: 181, Score: 0.3775083338082392
-----------
awful service and extremely slow. go elsewhere.
----------- Document: 846, Score: 0.35400602635951994
-----------
they have bad service and very rude
-----------
"BERTopic হল একটি টপিক মডেলিং কৌশল যা ট্রান্সফরমার এবং c-TF-IDF ব্যবহার করে ঘন ক্লাস্টার তৈরি করতে সাহায্য করে যা সহজে ব্যাখ্যাযোগ্য বিষয়গুলির জন্য অনুমতি দেয় যখন বিষয়ের বিবরণে গুরুত্বপূর্ণ শব্দগুলি রাখা হয়।"
নাম থেকে বোঝা যায়, BERTopic টেক্সটে উপস্থিত বিষয়গুলি সনাক্ত করতে শক্তিশালী ট্রান্সফরমার মডেল ব্যবহার করে। এই টপিক মডেলিং অ্যালগরিদমের আরেকটি বৈশিষ্ট্য হল TF-IDF-এর একটি বৈকল্পিক ব্যবহার, যাকে TF-IDF-এর শ্রেণি-ভিত্তিক বৈচিত্র বলা হয়।
Top2Vec এর মতো, এটির বিষয়গুলির সংখ্যা জানতে হবে না, তবে এটি স্বয়ংক্রিয়ভাবে বিষয়গুলি বের করে।
তদুপরি, একইভাবে Top2Vec, এটি একটি অ্যালগরিদম যা বিভিন্ন পর্যায় জড়িত। প্রথম তিনটি ধাপ একই: এমবেডিং নথি তৈরি করা, UMAP-এর মাধ্যমে মাত্রা হ্রাস করা এবং HDBScan-এর সাহায্যে ক্লাস্টারিং।
ধারাবাহিক পর্যায়গুলি Top2Vec থেকে বিচ্ছিন্ন হতে শুরু করে। এইচডিবিএসসিএএন-এর সাহায্যে ঘন এলাকাগুলি খুঁজে পাওয়ার পর, প্রতিটি বিষয়কে একটি ব্যাগ-অফ-শব্দ উপস্থাপনায় টোকেনাইজ করা হয়, যা নথিতে শব্দটি উপস্থিত আছে কিনা তা বিবেচনা করে। একটি ক্লাস্টারের অন্তর্গত নথিগুলিকে একটি অনন্য নথি হিসাবে বিবেচনা করার পরে এবং TF-IDF প্রয়োগ করা হয়। তাই, প্রতিটি বিষয়ের জন্য, আমরা সবচেয়ে প্রাসঙ্গিক শব্দগুলি চিহ্নিত করি, যার সর্বোচ্চ c-TF-IDF থাকা উচিত।
BERTopic এর উদাহরণ
আমরা একই ডেটাসেটে বিশ্লেষণ পুনরাবৃত্তি করি।
আমরা BERTopic ব্যবহার করে পর্যালোচনাগুলি থেকে বিষয়গুলি বের করতে যাচ্ছি:
model_path_bad = 'model/bert_bad'
topic_model_bad = train_bert(docs_bad,model_path_bad)
freq_df = topic_model_bad.get_topic_info()
print("Number of topics: {}".format( len(freq_df)))
freq_df['Percentage'] = round(freq_df['Count']/freq_df['Count'].sum() * 100,2)
freq_df = freq_df.iloc[:,[0,1,3,2]]
freq_df.head()
মডেল দ্বারা প্রত্যাবর্তিত সারণীটি 14টি বিষয় সম্পর্কে তথ্য প্রদান করে। টপিক টপিক আইডেন্টিফায়ারের সাথে মিলে যায়, সমস্ত বহির্মুখী ব্যতীত যেগুলিকে -1 হিসাবে লেবেল করা হয়।
এখন, আমরা ইন্টারেক্টিভ গ্রাফগুলিতে আমাদের বিষয়গুলির ভিজ্যুয়ালাইজেশন সম্পর্কিত সবচেয়ে আকর্ষণীয় অংশে যেতে যাচ্ছি, যেমন প্রতিটি বিষয়ের জন্য সবচেয়ে প্রাসঙ্গিক পদগুলির ভিজ্যুয়ালাইজেশন, আন্তঃবিষয়ক দূরত্ব মানচিত্র, এমবেডিং স্থানের দ্বি-মাত্রিক উপস্থাপনা এবং বিষয় অনুক্রম।
শীর্ষ দশটি বিষয়ের জন্য বার চার্ট দেখানো শুরু করা যাক। প্রতিটি বিষয়ের জন্য, আমরা c-TF-IDF স্কোরের উপর ভিত্তি করে হ্রাসকারী ক্রমে সাজানো সবচেয়ে গুরুত্বপূর্ণ শব্দগুলি পর্যবেক্ষণ করতে পারি। একটি শব্দ যত বেশি প্রাসঙ্গিক, স্কোর তত বেশি।
প্রথম বিষয়ে জেনেরিক শব্দ রয়েছে, যেমন অবস্থান এবং খাবার, টপিক 1 অর্ডার এবং অপেক্ষা, টপিক 2 সবচেয়ে খারাপ এবং পরিষেবা, টপিক 3 জায়গা এবং নোংরা, বিজ্ঞাপন ইত্যাদি।
বার চার্টগুলি ভিজ্যুয়ালাইজ করার পরে, আন্তঃবিষয়ক দূরত্ব মানচিত্রটি একবার দেখে নেওয়ার সময় এসেছে৷ একটি প্লটে বিষয়গুলিকে কল্পনা করতে আমরা c-TF-IDF স্কোরের মাত্রাকে দ্বিমাত্রিক স্থানে কমিয়ে দেই। নীচে, একটি স্লাইডার রয়েছে যা লাল রঙে রঙ করা বিষয় নির্বাচন করার অনুমতি দেয়। আমরা লক্ষ্য করতে পারি যে বিষয়গুলি দুটি ভিন্ন ক্লাস্টারে বিভক্ত, একটিতে খাদ্য, মুরগি এবং অবস্থানের মতো জেনেরিক থিম্যাটিকস এবং একটিতে বিভিন্ন নেতিবাচক দিক রয়েছে, যেমন খারাপ পরিষেবা, নোংরা, স্থান এবং ঠান্ডা।
পরবর্তী গ্রাফটি পর্যালোচনা এবং বিষয়গুলির মধ্যে সম্পর্ক দেখতে অনুমতি দেয়৷ বিশেষ করে, কেন একটি পর্যালোচনা একটি নির্দিষ্ট বিষয়ের জন্য বরাদ্দ করা হয় এবং পাওয়া সবচেয়ে প্রাসঙ্গিক শব্দগুলির সাথে সারিবদ্ধ করা হয় তা বোঝার জন্য এটি কার্যকর হতে পারে। উদাহরণস্বরূপ, আমরা সবচেয়ে খারাপ পরিষেবা সম্পর্কে কিছু শব্দের সাথে টপিক 2 এর সাথে মিল রেখে লাল ক্লাস্টারে ফোকাস করতে পারি। এই ঘন এলাকার মধ্যে নথিগুলি বেশ নেতিবাচক বলে মনে হচ্ছে, যেমন "ভয়ঙ্কর গ্রাহক পরিষেবা এবং আরও খারাপ খাবার"।
প্রথম দর্শনে, এই পদ্ধতিগুলির মধ্যে অনেকগুলি দিক রয়েছে, যেমন স্বয়ংক্রিয়ভাবে বিষয়গুলির সংখ্যা খুঁজে পাওয়া, বেশিরভাগ ক্ষেত্রে প্রাক-প্রক্রিয়াকরণের প্রয়োজন নেই, নথি এমবেডিংয়ের মাত্রা কমাতে UMAP-এর প্রয়োগ এবং তারপরে, HDBSCAN ব্যবহার করা হয় এই হ্রাসকৃত নথি এমবেডিংগুলির মডেলিং, কিন্তু তারা নথিতে বিষয়গুলি বরাদ্দ করার উপায়টি দেখার সময় তারা মৌলিকভাবে আলাদা।
Top2Vec একটি ক্লাস্টারের সেন্ট্রোয়েডের কাছাকাছি অবস্থিত শব্দগুলি খুঁজে বের করে বিষয় উপস্থাপনা তৈরি করে।
Top2Vec থেকে ভিন্নভাবে, BERTopic ক্লাস্টারের সেন্ট্রয়েডকে বিবেচনা করে না, তবে এটি একটি ক্লাস্টারের সমস্ত নথিকে একটি অনন্য নথি হিসাবে বিবেচনা করে এবং TF-IDF-এর একটি শ্রেণি-ভিত্তিক বৈচিত্র ব্যবহার করে বিষয় উপস্থাপনা বের করে।
Top2Vec | BERTopic |
ক্লাস্টারের সেন্ট্রোয়েডের উপর ভিত্তি করে বিষয়গুলি বের করার কৌশল। | c-TF-IDF এর উপর ভিত্তি করে বিষয়গুলি বের করার কৌশল। |
এটি ডায়নামিক টপিক মডেলিং সমর্থন করে না। | এটি ডায়নামিক টপিক মডেলিং সমর্থন করে। |
এটি প্রতিটি বিষয়ের জন্য শব্দ মেঘ তৈরি করে এবং বিষয়, নথি এবং শব্দগুলির জন্য অনুসন্ধান সরঞ্জাম সরবরাহ করে। | এটি ইন্টারেক্টিভ ভিজ্যুয়ালাইজেশন প্লট তৈরি করার অনুমতি দেয়, এক্সট্রাক্ট করা বিষয়গুলির ব্যাখ্যা করার অনুমতি দেয়। |
টপিক মডেলিং হল প্রাকৃতিক ভাষা প্রক্রিয়াকরণের একটি ক্রমবর্ধমান ক্ষেত্র এবং এখানে অনেক সম্ভাব্য অ্যাপ্লিকেশন রয়েছে, যেমন পর্যালোচনা, অডিও এবং সোশ্যাল মিডিয়া পোস্ট৷ যেমনটি দেখানো হয়েছে, এই নিবন্ধটি Topi2Vec এবং BERTopic-এর একটি ওভারভিউ প্রদান করে, যা দুটি প্রতিশ্রুতিশীল পদ্ধতি, যা আপনাকে কোডের কয়েকটি লাইন দিয়ে বিষয়গুলি সনাক্ত করতে এবং ডেটা ভিজ্যুয়ালাইজেশনের মাধ্যমে ফলাফলগুলি ব্যাখ্যা করতে সহায়তা করতে পারে। আপনার যদি এই কৌশলগুলি সম্পর্কে প্রশ্ন থাকে বা বিষয়গুলি সনাক্ত করার অন্যান্য পদ্ধতি সম্পর্কে আপনার কাছে অন্যান্য পরামর্শ থাকে তবে মন্তব্যগুলিতে লিখুন৷
ইউজেনিয়া অ্যানেলো বর্তমানে ইতালির পাডোভা বিশ্ববিদ্যালয়ের তথ্য প্রকৌশল বিভাগের একজন গবেষণা ফেলো। তার গবেষণা প্রকল্পটি অসঙ্গতি সনাক্তকরণের সাথে মিলিত ক্রমাগত শিক্ষার উপর দৃষ্টি নিবদ্ধ করে।
- এসইও চালিত বিষয়বস্তু এবং পিআর বিতরণ। আজই পরিবর্ধিত পান।
- প্লেটোব্লকচেন। Web3 মেটাভার্স ইন্টেলিজেন্স। জ্ঞান প্রসারিত. এখানে প্রবেশ করুন.
- উত্স: https://www.kdnuggets.com/2023/01/topic-modeling-approaches-top2vec-bertopic.html?utm_source=rss&utm_medium=rss&utm_campaign=topic-modeling-approaches-top2vec-vs-bertopic
- 1
- 10
- 100
- 7
- a
- সক্ষম
- সম্পর্কে
- হিসাব
- Ad
- ঠিকানা
- পর
- অ্যালগরিদম
- আলগোরিদিম
- প্রান্তিককৃত
- সব
- বণ্টন
- অনুমতি
- অনুমতি
- পরিমাণে
- বিশ্লেষণ
- বিশ্লেষণ করা
- এবং
- অসঙ্গতি সনাক্তকরণ
- অন্য
- আবেদন
- অ্যাপ্লিকেশন
- ফলিত
- অভিগমন
- পন্থা
- এলাকায়
- এলাকার
- আর্গুমেন্ট
- প্রবন্ধ
- আ
- নির্ধারিত
- অডিও
- স্বয়ংক্রিয়ভাবে
- সহজলভ্য
- খারাপ
- বার
- ভিত্তি
- কারণ
- মধ্যে
- পাদ
- ব্রেকফাস্ট
- ভবন
- তৈরী করে
- গণক
- নামক
- না পারেন
- সক্ষম
- গ্রেপ্তার
- মামলা
- চেন
- চরিত্রগত
- চার্ট
- মনোনীত
- শহর
- সর্বোত্তম
- ঘনিষ্ঠ
- কাছাকাছি
- গুচ্ছ
- থলোথলো
- কোড
- কফি
- মিলিত
- মন্তব্য
- সাধারণ
- অভিযোগ
- বিবেচিত
- বিবেচনা করা
- ধারণ
- প্রসঙ্গ
- প্রচলিত
- অনুরূপ
- অনুরূপ
- সৃষ্টি
- নির্মিত
- সৃষ্টি
- তৈরি করা হচ্ছে
- সৃষ্টি
- কাপ
- এখন
- ক্রেতা
- গ্রাহক সেবা
- উপাত্ত
- দিন
- ডিলিং
- প্রদর্শিত
- বিভাগ
- সনাক্তকরণ
- নির্ধারণ করে
- বিভিন্ন
- দূরত্ব
- দূরবর্তী
- ডাইভার্জ
- দলিল
- কাগজপত্র
- না
- অপূর্ণতা
- ড্রাইভ
- মাধ্যমে চালান
- প্রগতিশীল
- প্রতি
- সহজে
- অন্যত্র
- এম্বেড করা
- প্রকৌশল
- এমন কি
- উদাহরণ
- ছাড়া
- ব্যাখ্যা
- নির্যাস
- চায়ের
- অত্যন্ত
- দ্রুত
- সহকর্মী
- কয়েক
- ক্ষেত্র
- আবিষ্কার
- আবিষ্কার
- প্রথম
- কেন্দ্রবিন্দু
- দৃষ্টি নিবদ্ধ করা
- খাদ্য
- পাওয়া
- থেকে
- মৌলিকভাবে
- সাধারণ
- উত্পাদন করা
- উত্পন্ন
- পাওয়া
- বিশ্বব্যাপী
- Go
- চালু
- চিত্রলেখ
- গ্রাফ
- ক্রমবর্ধমান
- সাহায্য
- যাজকতন্ত্র
- উচ্চ
- ঊর্ধ্বতন
- সর্বোচ্চ
- HTTPS দ্বারা
- ধারণা
- শনাক্ত
- আইডেন্টিফায়ার
- সনাক্ত করা
- চিহ্নিতকরণের
- আমদানি
- গুরুত্বপূর্ণ
- উন্নত করা
- in
- তথ্য
- পরিবর্তে
- ইন্টারেক্টিভ
- মজাদার
- ব্যাখ্যা
- IT
- ইতালি
- কেডনুগেটস
- পালন
- জানা
- লেবেল
- ভাষা
- বড়
- শিক্ষা
- ওঠানামায়
- লাইন
- লাইন
- লিঙ্কডইন
- তালিকা
- স্থানীয়
- অবস্থিত
- অবস্থান
- অবস্থানগুলি
- দেখুন
- খুঁজছি
- প্রধান
- অনেক
- মানচিত্র
- জরায়ু
- এমসিডোনাল্ড
- অর্থপূর্ণ
- মিডিয়া
- মডেল
- মূর্তিনির্মাণ
- মূর্তিনির্মাণ
- মডেল
- অধিক
- সেতু
- বহুজাতিক
- নাম
- প্রাকৃতিক
- স্বভাবিক ভাষা
- স্বাভাবিক ভাষা প্রক্রিয়াকরণ
- প্রয়োজন
- নেতিবাচক
- পরবর্তী
- গোলমাল
- সংখ্যা
- অনেক
- মান্য করা
- প্রাপ্ত
- ONE
- ক্রম
- সংগঠন
- মূল
- অন্যান্য
- পান্ডাস
- স্থিতিমাপ
- অংশ
- বিশেষ
- শতকরা হার
- সম্পাদন করা
- বাক্যাংশ
- জায়গা
- Plato
- প্লেটো ডেটা ইন্টেলিজেন্স
- প্লেটোডাটা
- বিন্দু
- সম্ভব
- পোস্ট
- ক্ষমতাশালী
- বর্তমান
- আগে
- পূর্বে
- প্রক্রিয়াজাতকরণ
- প্রযোজনা
- পণ্য
- প্রকল্প
- আশাপ্রদ
- প্রদত্ত
- উপলব্ধ
- গুণ
- প্রশ্ন
- কারণ
- লাল
- হ্রাস করা
- হ্রাসপ্রাপ্ত
- হ্রাস
- সংক্রান্ত
- সম্পর্ক
- সম্পর্ক
- প্রাসঙ্গিক
- পুনরাবৃত্তি
- প্রতিনিধিত্ব
- প্রতিনিধি
- প্রতিনিধিত্ব করে
- গবেষণা
- ফলাফল
- প্রকাশ করা
- এখানে ক্লিক করুন
- পর্যালোচনা
- একই
- সার্চ
- অনুসন্ধানের
- নির্বাচন
- সেবা
- উচিত
- প্রদর্শনী
- প্রদর্শিত
- দৃষ্টিশক্তি
- অনুরূপ
- একভাবে
- থেকে
- একক
- স্লাইডার
- ধীর
- So
- সামাজিক
- সামাজিক মাধ্যম
- সামাজিক মিডিয়া পোস্ট
- কিছু
- স্থান
- বিশেষজ্ঞ
- নির্দিষ্ট
- বিভক্ত করা
- ধাপ
- প্রারম্ভিক ব্যবহারের নির্দেশাবলী
- কৌশল
- গঠন
- এমন
- প্রস্তাব
- তদারকি শেখা
- সমর্থন
- সমর্থন
- টেবিল
- গ্রহণ করা
- লাগে
- প্রযুক্তি
- এই
- শর্তাবলী
- সার্জারির
- সেখানে।
- তিন
- দ্বারা
- সময়
- থেকে
- টোকেনাইজড
- সরঞ্জাম
- শীর্ষ
- শীর্ষ দশ
- বিষয়
- টপিক
- ট্রান্সফরমার
- অভিভাবকসংবঁধীয়
- টিপিক্যাল
- নিম্নাবস্থিত
- বোঝা
- অনন্য
- বিশ্ববিদ্যালয়
- মার্কিন
- ব্যবহার
- দামি
- মানগুলি
- বৈকল্পিক
- কল্পনা
- অপেক্ষা করুন
- যে
- যখন
- যতক্ষণ
- ইচ্ছা
- মধ্যে
- শব্দ
- শব্দ
- খারাপ
- লেখা
- ভুল
- zephyrnet