الگوریتم BERT چیست؟

الگوریتم Bert

بحث های زیادی در مورد آپدیت الگوریتم جدید گوگل وجود داره. اما واقعا الگوریتم BERT چیه و چطور کار می‌کنه؟ و چرا باید این موضوع برای شما به عنوان یک فعال در زمینه سئو اهمیت داشته باشه؟ برای پاسخ چنین سوالهایی، در ادامه مقاله با ما همراه باشید.

در حال حاضر هیاهو و جنجال زیادی در صنعت SEO پیرامون BERT وجود داره و اینکه نمیشه وبسایت رو براش بهینه سازی کرد. خب باید بگیم این موضوع واقعاً هم حقیقت داره، نمی‌تونید وبسایتتتون رو برای این الگوریتم جدید بهینه کنید، شما فقط مجبورید مطالب خیلی خیلی خوبی رو برای کاربرا و مخاطبینتون تهیه کنید. اما اگه واقعا آدم کنجکاوی هستید و می‌خواید حتما بدونید BERT چطور کار می‌کنه، ما در اینجا به شما توضیحاتی می‌دیم تا کمی بیشتر از ساز و کار اون سر در بیارید یا بتونید به مشتریای خودتون هم توضیح بدید.

به یاد داشته باشید که الگوریتم BERT اونقدرا هم چیز عجیب و غریبی نیست

خب بیاید بریم سر اصل مطلب. یکی از بلاگر های حوزه سئو چند وقت پیش صحبتهای جالبی با آلیسون اتینگر، که یکی از محققین زبانهای طبیعیه داشت. اتینگر استاد دانشگاه شیکاگو و یکی از علاقه مندان به این حوزه است. مطالبی که در این مقاله می‌خونید گزینه صحبتهای این دو نفر در باره BERT هست. اولین چیزی که با صحبتهای این دو نفر دستگیرم شد اینه که بسیار بسیار مهمه، که یادمون باشه BERT اونقدرا هم چیز عجیب و ترسناکی نیست. در حال حاضر هیجان زیادی اون بیرون هست، اما باید بگیم هنوز راه زیادی مونده، تا زبانی که ما انسانها با اون ارتباط برقرار می‌کنیم مورد درک کامل ماشینها قرار بگیره. بنابراین بسیار مهمه که یادمون بمونه اعتبار بیش از حدی برای اونچه این مدل میتونه انجام بده قائل نشیم. اما همچنان باید اعتراف کنیم که این موضوع، اتفاق مهم و هیجان انگیزی در حوزه هوش مصنوعی و ماشین لرنینگ هست.

الگوریتم Bert از کجا میاد؟

این که الگوریتم BERT از کجا اومده و به کجا میره نیازمند افق دید و زمینه وسیع تر و گسترده تری هست. فک می‌کنم هر چند وقت یک بار چنین موضوعاتی مثل بمب در صنعت سئو صدا می‌کنه. مثل یک فریم ثابت از یک فیلم که بدون اطلاع از سکانسها و فریم های قبلی و بعدی چیزی ازش درک نمی‌کنید. حالا ما هم از BERT رونمایی کردیم. اما بیاید کمی به عقب تر برگردیم.

پردازش زبان طبیعی

پردازش زبان طبیعی - NLP

به طور سنتی و مرسوم، درک زبان ما توسط کامپیوترها غیر ممکن بوده. اونا می‌تونن نوشته ها و فایلها رو ذخیره کنند، ما می‌تونیم اونها رو وارد کامپیوترها کنیم و کارهای اینچنینی، اما درک زبان همیشه برای کامپیوترها بسیار مشکل بوده. تا این که پردازش زبان طبیعی از راه می‌رسه (NLP: Natural Language Processing)، رشته ای که محققین در اون به توسعه مدلهایی می‌پردازن که مسائل خاصی حوزه درک زبان رو حل کنند. مثالهایی از این دست عبارت اند از:

  • تشخیص وجود و ماهیت با اسم
  • دسته بندی
  • آنالیز احساسات
  • پرسش و پاسخ

مثالی در مورد مدلهای NLP می‌تونه وسایل آشپزخونه باشه، ابزاری که برای یک کار خاص طراحی شدن و اون کار خاص رو هم به بهترین نحو انجام میدن. حالا فرض کنید ابزاری در آشپزخونتون دارید که عملکرد 11 وسیله پر استفاده رو در خودش داره. این دقیقا BERT هست، یک دستگاه همه کاره آشپزخونه که 11 مورد از راه حلهای پردازش زبان طبیعی رو به طور خیلی خیلی خوبی انجام میده.

یک تفاوت اساسی و بسیار بزرگ در حوزه NLP . به همین خاطره که همه در مورد این موضوع هیجان زده هستن، چون دیگه به هر کدوم از مدلها به صورت جداگانه نیازی نیست. حالا دیگه اونها می‌تونن از الگوریتم BERT برای حل اکثر مسائل و انجام اکثر کارها استفاده کنند، به همین دلیله که گوگل از BERT در آپدیت الگوریتم جدیدش استفاده کرده.

حالا سوال اینجاست که BERT قراره در آخر به کجا بره؟ قرار چه مسیری رو دنبال کنه؟

طبق پیشبینی پروفسور اتینگر، احتمالا تا مدتی ما در همین مسیر فعلی به راه خودمون ادامه می‌دیم، ما ورژنهای بزرگتر و بهتری از BERT رو می‌سازیم، اما در نهایت تمام اونها محدودیت های بنیادی که نسخه فعلی با اونها روبرو هست رو خواهند داشت. همین حالا هم ورژنهای پرشماری از BERT وجود داره و احتمالا ما در ادامه تعداد بیشتری از اونها رو خواهیم دید. مطمئنا تماشای ادامه مسیر این جهش بزرگ بسیار جذاب خواهد بود.

چطور BERT اینقدر باهوش شده؟

چطور BERT اینقدر باهوش شده؟

چطوره جواب این سوال رو با ساده سازی بسیاری به شما بدم که BERT چطور اینقدر باهوش شده؟

گوگل از متن ویکیپدیا و یک سرمایه گذاری بسیار عظیم برای تامین نیروی این مدلهای بزرگ استفاده می‌کنه. در ادامه اونها از یک شبکه عصبی بدون نظارت و از تمام متن های موجود در ویکیپدیا برای آموزش و یادگیری زبان و مفهوم اون استفاده کردند. نکته جالب در مورد شیوه یادگیری BERT اینه که، هر طول اختیاری از متون رو دریافت می‌کنه (که ویژگی مثبتیه، چون زبانی که ما هم با اون ارتباط برقرار می‌کنیم همینطوره) و اون رو به صورت یک بردار بازنویسی می‌کنه. هر بردار هم یک رشته ثابت از اعداده. این باعث میشه تا زبان ما برای ماشین قابل ترجمه بشه.

این اتفاقات و تبدیل ها در یک فضای عجیب و غریب n بعدی اتفاق می‌افته، که درک و حتی تصور اون برای ما محاله. برای باهوشتر شدن و باهوشتر شدن، BERT از تاکتیکی مشابه Word2vec استفاده می‌کنه که بهش ماسکینگ میگن. ماسکینگ وقتی اتفاق می‌افته که یک لغت تصادفی، در یک جمله مخفی شده باشه. از اونجایی که الگوریتم BERT یک مدل دو جهته هست، با توجه به کلمات قبل و بعد از کلمه مخفی شده، سعی می‌کنه تشخیص بده چه کلمه ای باید اونجا قرار بگیره.

اون این کار رو بارها و بارها و بارها تکرار می‌کنه، تا جایی که در تشخیص کلمه مخفی شده به توانمندی کافی برسه. پس از این، اون می‌تونه در ادامه خودش رو طوری بهبود ببخشه، تا 11 مورد از وظایف پردازش زبان طبیعی رو انجام بده. اگه در این حوزه فعالیت می‌کنید، باید بدونید که در زمان فوق العاده جذابی برای مطلع شدن از اخبار و پیشرفت های این صنعت قرار داریم.

BERT چیست؟

BERT یک مدل پردازش زبان طبیعی از پیش آموزش دیده بدون نظارته. BERT می‌تونه پس از تنظیم مناسب، از 11 عدد از NLP های مجزا، کارهاd پردازش رو بهتر انجام بده. و اساسا می‌تونه به عنوان یک تقویت کننده قدرتمند، برای پردازش و درک زبانهای طبیعی به کار بره. الگوریتم BERT در اساس و قلب ساختار خودش دو جهته است، به این معنی که با دقت به موجودیت های قبل و بعد از کلمه، و متونی که از پیش اونها رو در ویکیپدیا یاد گرفته، سعی می‌کنه درک بیشتر و بیشتری از زبان به دست بیاره.

برخی از کارهایی که BERT قادر به انجامشون نیست چه کارهایی هستند؟

پروفسور اتینگر در این مورد مقاله بسیار دقیق و با جزئیاتی تهیه کرده، با عنوان کارهایی که BERT نمیتونه انجام بده. شگفت انگیز ترین نکته در تحقیقات ایشون، در زمینه تشخیص عدم وجود هست. به این معنی که BERT در تشخیص و درک نفی یا اینکه چیزها چه نیستند چندان خوب عمل نمیکنه. برای مثال، وقتی عبارت “سینه سرخ یک . . . هست”، به عنوان ورودی وارد ماشین شد، کلمه پرنده رو به عنوان جواب به ما داد، اما وقتی عبارت “سینه سرخ یک . . . نیست” رو به عنوان ورودی به ماشین دادیم، باز هم پیشبینی BERT پرنده بود. پس با این وجود میشه گفت BERT در درک اینکه چه چیزی نیست مشکل داره.

چطور باید برای BERT بهینه سازی انجام بدیم؟ (جواب: نمیتونید اصلا همچین کاری بکنید!)

در آخر باید اضافه کنیم که چطور برای BERT وبسایتتون رو بهینه کنید. دوباره بهتون می‌گیم، شما نمیتونید چنین کاری کنید. تنها روش موثر در این آپدیت جدید اینه که مطالب واقعا خوبی رو منتشر کنید، و نیازی که کاربرا ازتون انتظار دارند رو به خوبی مرتفع کنید. ما مقاله های بسیار مفیدی در باره اینکه چطور می‌تونید پست های بهتری نوشته و منتشر کنید تهیه کردیم که می‌تونید از اونها استفاده کنید.

رشد فزاینده گوگل برای درک سوالات طبیعی

مورد دیگه ای که باید بهش اشاره کنم چون واقعا نمی‌تونم اون رو از ذهنم خارج کنم این نکته کلیدی از طرف جف دین، سرپرست تیم هوش مصنوعی گوگل هست. اون در این مقاله در باره BERT صحبت می‌کنه و در ادامه در باره سوالات طبیعی و درک سوالات طبیعی حرفهاشو دنبال می‌کنه. مهمترین نکته ای که توجه من رو به خودش جلب کرد این مثال بود، خیلی خب، فرض کنیم یکی از کاربرا سوال کنه : “میشه وقتی گوشی تلفن همراهمون در حالت پرواز (Airplane mode) قرار داره همچنان تماس ها رو دریافت کنیم؟” این که چطور لایه مترجم زبان طبیعی گوگل سعی داره این عبارت متنی رو بفهمه بسیار تخصصیه و درکش بسیار مشکله:

Airplane mode, aeroplane mode, flight mode و یا standalone mode، یکی از تنظیماتیه که روی تلفن های همراه، لپتاپها و سایر کامپیوترهای قابل حمل و تجهیزات الکترونیکیه دیگه وجود داره، که وقتی فعال بشه، هر سیگنال رادیویی که به دستگاه مورد نظر ارتباط داره رو قطع می‌کنه، بنابراین بلوتوث، امواج تلفنی و وای فای کاملا غیر فعال میشه. سیستم GPS ممکنه غیر فعال بشه و ممکنه فعال باقی بمونه، چرا که شامل انتقال امواج رادیویی نمیشه.

با استفاده از این لایه های پیچیده ای که ازشون صحبت کردیم و همچنین BERT، اونا تونستن به سادگی به این سوال جواب بدن: خیر. در بین این همه کلمات و جملات طولانی، پیچیده و گیج کننده. این ابزار بسیار بسیار قدرتمندی در زمینه فعالیت ماست. چیزهایی مثل featured snippets یا SERP features رو در نظر بگیرید. منظورم اینه که این موضوع می‌تونه تاثیر شگفت انگیزی روی محیط و شرایط ما بذاره. بنابراین به نظرم مهمه که حداقل تا حدی، نگاهی به جهت گیری ها و پیشرفت های این حوزه داشته باشیم.

در ادامه مقاله می توانید برای فهمیدن قصد کاربر با توجه به الگوریتم BERT جواب سوالات خود را پیدا کنید.

متخصصان گوگل سعی کرده اند راهکاری را بسازن تا موتور جستجوی گوگل بتواند برای درخواست‌هایی که حتی قبلا اطلاعاتی برای آن پیش بینی نشده است نیز نتایج مناسبی به کاربر نشان دهد. خیلی از کاربران هنوز برای جستجو اصولی در گوگل مشکل دارند و کلمات یا عبارات را به صورت عامیانه وارد می کنند. حتی بعضا به دلایل مختلف مانند تند تایپ کردن یا اطلاعات کافی نداشتن جملات را با غلط املایی وارد می کنند.

گوگل اعلام کرده است که جستجو به معنای فهمیدن زبان است و این به معنای آن است که وظیفه موتور جستجو می باشد که معنا و مفهوم کلمات را درست تشخیص دهد. در واقع الگوریتم BERT بر فهمیدن معنای واقعی کلمات و عبارات جستجو تمرکز دارد خارج از زبان و نحوه وارد کردن اطلاعات. برت این کار را با بررسی کلمات قبل و بعدی در جستجوها و همچنین آنالیز کامل متن مقالات انجام میدهد.

بررسی جستجوهای شما در الگوریتم BERT

بررسی جستجوهای شما در الگوریتم BERT

مدل BERT جزییات بسیار زیادی دارد ولی شاید سؤال اصلی این باشد که این همه تغییرات جزیی چه سودی برای کاربران دارد؟

جواب بسیار ساده است؛ زمانی که این همه جزییات و تکنولوژی به موتور جست و جو برای درک هدف آن‌ها اضافه شده است، مطمئنا به کاربران کمک می‌کند تا نتایج بهتری برای هر جستجوی خود بدست بیاورند. همانطور که گفتیم به خصوص زمانی که شما به صورت عامیانه و محاوره‌ای جستجو می‌کنید، فقط به کلمه مورد نظر دقت نمی‌کند، بلکه به قصد شما از جستجو و از سمتی به کل مفهوم محتوایی که قرار است به شما نمایش دهد، توجه میکند. همین موضوع موجب می‌شود که آینده جستجو بسیار قدرتمندتر گردد، درواقع این اتفاق و دیگر ویژگی ‌ها باعث تمایز گوگل از دیگر موتورهای جستجو شده است، به همین دلیل بیشتر افراد در دنیا از این ابزار استفاده می‌کنند.

یکی دیگر از چالش‌های موجود در فهمیدن قصد کاربر استفاده از حروف اضافه میباشد، به طوری که شاید اضافه یا کم کردن یک حرف اضافه به کلی منظور کاربر را عوض کند. به طور مثال در زبان فارسی اگر به جای حرف اضافه “به” در جمله “رفتن به” از حرف اضافه ” از” استفاده کنیم معنی جمله کاملا عوض می‌شود. در گذشته موتور جستجو به صورت کامل متوجه این موضوع نمیشد ولی با اضافه شدن الگوریتم BERT شرایط کاملا عوض شده و هدف و قصد کاربر درک می‌شود، بنابراین نتایج نسبت به قصد او نمایش داده خواهد شد.

منبع:

https://tinyurl.com/rk6dmn7

95 درصد از آن‌ چیزی را که به دیگران می‌آموزیم برای همیشه در ذهن ما ماندگار می گردد.

ارسال دیدگاه

* .ایمیل ادرس شما منتشر نخواهد شد