آگهی-کالا آنلاین
آگهی-کالا آنلاین
موتور جستجوگر 1

موتور جستجوگر

موتور جستجوگر

با پیشرفت بشر در زمینه‌های مختلف علمی و افزایش سطح آگاهی انسان درباره پدیده‌های مختلف و البته نیاز رو به گسترش ما به دانش و اطلاعات در این عصر زمینه برای بروز پدید‌ه‌های مختلفی که بتواند خواسته‌های علمی و اطلاع رسانی انسان را برای برآورده‌ سازد افزایش یافته است.

موتور جستجوگر

با ساخت کامپیوتر در اواسط قرن گذشته مقداری از نیازهای انسان برآورده شد با گذشت زمان این دستگاه در قسمتهای مختلف جامعه نفوذ کرد و تا امروز که در جاهایی مانند پزشکی و اداری استفاده می‌شود.

در دهه‌های پایانی قرن گذشته با افزایش نیازبه اطلاعات بصورت روزانه گسترش ارتباط بین سازمانها و نهادها . نیاز به یک شبکه جهانی احساس شد که هم اطلاعات به روز شده و فراوانی بتواند در آن وجود داشته باشد و هم به سادگی و ارزان در اختیار مردم قرار گیرد.

اینترنت بر این اساس شکل گرفت امروزه اینترنت به سرعت در حال وارد شدن به زندگی مردم است این رسانه با مطالب فراوان و متنوعی که دارد توانسته است قشرهای مختلف مردم را به خود جذب کند. امروزه عده زیادی از مردم عادی، سازمانها، در روز از اینترنت استفاده می‌کنند.

به همین خاطر به مکانیزمی نیاز شد که کاربران بتوانند امکان جستجو داشته باشند در نتیجه موتور جستجوگر در این رسانه ایجاد شده است تا بتواند مطالب مورد نظر کاربر را به سرعت پیدا کنند.

موتور جستجوگر از ابتدای تشکیل خود با امکان جستجوی مطلب در بعضی از سایتهای اینترنتی قرار گرفتند. این سایتها با گذشت زمان توانستند مکانیزم جستجوی خود را بهینه و از طرفی گسترده‌تر کنند. با گسترش استفاده از اینترنت احتیاج به موتور جستجوی فارسی بشدت مشاهده می‌شد که این کار توسط GOOGLE انجام شده است.

و می‌توان به کمک آن اطلاعات فراوانی را بصورت فارسی در زمینه‌های مختلف بدست آورد. گستردگی این مطالب بقدری زیاد است که پیشنهاد می‌شود که هر کاربر اسم خود را یک بار در موتور جستجو نوشته و نتیجه کار را مشاهده کنند.

سایتهای موتور جستجوگر در حال حاضر نیز در حال بهتر کردن الگوریتم جستجوی خود و اضافه کردن کارایی‌های دیگر به سایت خود هستند که در قسمت پایانی تحقیق آمده است. در این تحقیق سعی شده است مطالبی راجع به موتور جستجو و انواع آن و نسل
آینده آنها مطالبی آورده شده است.

موتور جستجوگر چگونه کار می کند؟

وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارائه می‌شود، کاربر در واقع نتیجه کار بخش‌های متفاوت آن موتور جستجوگر را می‌بینند.
موتور جستجوگر قبلاً پایگاه داده‌اش «Database » را آماده کرده است و این گونه نیست که در همان لحظه جستجو، تمام وب را بگردد.

همه آنها در زمان پاسخ‌گوی به کاربران، تنها در پایگاه داده‌ای که در اختیار دارند به جستجو می‌پردازند و نه در وب موتور جستجوگر به کمک بخش‌های متفاوت خود، اطلاعات مورد نیاز قبلاً جمع‌آوری، تجزیه و تحلیل می‌کند و آنرا در پایگاه داده‌اش ذخیره می‌نماید، بخش‌های مجزای یک موتور جستجوگر عبارتند از:

Spider یا عنکبوت
Crawler یا خزنده
Indexer یا بایگانی کننده
Database یا پایگاه داده
Ranker یا سیستم رتبه بندی

الف ـ Spider (عنکبوت)

اسپایدر یا روبوت « Robot » نرم افزاری است که کار جمع‌آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می‌زند، محتوای آنها را می‌خواند و اطلاعات مورد نیاز موتور جستجوگر را جمع‌آوری می‌کند و آنرا در اختیار سایر بخش‌های موتور جستجوگر قرار می‌دهد.

کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید می‌کنند، اسپایدر هم این کار را انجام می‌دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می‌بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها « رد پا بر جای می‌گذارد.

شما اگر اجازه دسترسی به آمار دید و بازدید‌های صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، می‌توانید مشخص کنید که اسپایدر کدام موتور جستجوگر صفحات سایت را مورد بازدید قرار داده‌اند .

اسپایدر‌ها کاربردهای دیگری نیز دارند، به عنوان مثال عده‌ای از آنها به سایت‌های مختلف مراجعه می‌کنند و فقط به بررسی فعال بودن لینک‌های آنها می‌پردازند و یا به دنبال آدرس پست الکترونیکی « Email » افراد می‌گردند .

ب ـ Crawler (خزنده )

کراولر، نرم افزاری است که به عنوان فرمانده برای اسپایدر عمل می‌کند. کراولر مشخص می‌کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می‌گیرد که کدام یک از لینک‌های صفحه‌ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضی‌ها را دنبال کند و یا هیچ کدام را دنبال نکند.

کراولر، ممکن است قبلاً توسط دارندگان موتورهای جستجوگر برنامه‌ریزی شده باشد که آدرس‌های خاصی را طبق برنامه در اختیار اسپایدر قرار دهد تا از آنها دیدن کند .

دنبال کردن لینک‌های یک صفحه به این بستگی دارد که موتورهای جستجوگر چه حجمی از اطلاعات یک سایت را می‌تواند در پایگاه داده‌اش ذخیره کندو همچنین ممکن است اجازه دسترسی به عضی از صفحات به موتورهای جستجوگر داده نشده باشد.

شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات شما را با خود ببرند، می‌توانید آنها را از بعضی از صفحات سایت‌‌تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به موتورهای جستجوگر ندهید. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می‌شود. به عمل کراولر، خزش (Crawling ) می‌گویند.

ج ـ Indexer ( بایگانی کننده )

تمام اطلاعات جمع‌آوری شده توسط اسپایدر در اختیار ایندکسر قرار می‌گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می‌گیرند و به بخش‌های متفاوتی تقسیم می‌شوند. تجزیه و تحلیل بدین معنی است که مشخص می‌شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، کلمات چند بار تکرار شده است، کلمات در کجای صفحه قرار دارند.

در حقیقت ایندکسر صفحه را به پارامترهای آن خرد می‌کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می‌کند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.

در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده‌ها از عضی کلمات که بسیار رایج هستند صرفنظر می‌کند. کلماتی نظیر a ، an ، the ، www ، is از این گونه کلمات هستند.

د ـ Database ( پایگاه داده )

تمام داده‌ها تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می‌گردد. در این بخش، داده‌ها گروه‌بندی، کدگذاری، و ذخیره می‌شود. داده‌ها قبل از آنکه ذخیره شوند، فشرده می‌شوند تا حجم کمی را اشغال کنند.

یک موتور جستجوگر باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز کند. بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می‌گردد. یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده است.

و ـ Ranker ( سیستم رتبه بندی )

بعد از آنکه مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ‌گویی به سئوالات کاربران است. کاربران چند کلمه را در جعبه جستجوی Search Box آن وارد می‌کنند و سپس با فشردن Enter منتظر پاسخ می‌مانند. در این مرحله، سیستم رتبه بندی وارد عمل می‌شود و ابتدا تمام صفحات موجود در پایگاه داده، که به موضوع جستجو شده، مرتبط هستند را مشخص می‌کند. آنها را به ترتیب از بیشترین ارتباط تا کمترین ارتباط مرتب می‌کند و در نتایج جستجو به کاربر ارائه می‌کند.

اگر موتور جستجوگر بهتر‌ین و کامل‌ترین پایگاه داده را داشته باشد اما نتواند پاسخ‌های مرتبطی را ارائه کند، یک موتور جستجوگر ضعیف خواهد بود .
سیستم رتبه‌بندی قلب تپنده یک موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد. سیستم رتبه بندی برای پاسخ‌گویی به سئوالات کاربران، پارامترهای بسیاری را در نظر می‌گیرد تا بتواند بهترین پاسخ‌ها را در اختیار آنها قرار دهد.

✓ حتما بخوانید:  اينترنت به زبان ساده

الگوریتم، مجموعه‌ای از دستورالعمل‌ها است که موتور جستجوگر با اعمال آنها بر پارامترهای صفحات موجود در پایگاه داده‌اش ، تصمیم می‌گیرد که صفحات مرتبط را چگونه در نتایج جستجو ، مرتب کند . در حال حاضر قدرتمند‌ترین سیستم رتبه‌بندی را گوگل دراختیار دارد.

می‌توان با ادغام کردن وظیفه‌های اسپایدر با کراولر و همچنین ایندکسر با پایگاه داده موتور جستجوگر را شامل سه بخش زیر دانست که این گونه تقسم‌بندی هم درست می‌باشد:

کراولر بایگانی سیستم رتبه‌بندی

برای سهولت در بیان مطالب بعدی هرگاه صحبت از بایگانی کردن ( شدن ) به میان می‌آید ، مقصود این است که صفحه تجزیه و تحلیل و به پایگاه داده موتور جستجوگر وارد می‌شود. برای آنکه تصور درستی از نحوه کار یک موتور جستجوگر داشته باشید مثال غیر متعارف زیر را با هم بررسی می‌کنیم.
یک شکارچی تصمیم به شکار می‌گیرد:

پروتکل Robots:

ابتدا تمام محدودیت‌های موجود برای شکار در این منطقه را بررسی می‌کند:
آیا در این منطقه می‌توان به شکار پرداخت؟
کدام حیوانات را می‌توان شکار کرد؟
حداکثر تعداد شکار چه میزانی است؟

انواع موتورهای جستجوگر:

موتور جستجوگر با درجات متفاوتی از موفقیت ) در واقع یک کار انجام می‌دهند: فراهم آوردن یک وسیله جستجوی ساده برای کمک به کاربران در رسیدن به اطلاعات مورد نیاز برای نیل به این مهم ، موتورهای جستجوگر از اطلاعات موجود در پایگاه داده‌شان کمک می‌گیرند.

اطلاعات این پایگاه داده نیز به روش‌های گوناگونی تامین می‌شود . کار جمع‌آوری داده را اسپایدرها بر عهده دارند. اما آیا همه موتور جستجوگر، اسپایدر دارند؟ آیا همه اسپایدرها مثل هم کار می‌کنند؟ با توجه به نوع جمع‌آوری اطلاعات، شیوه ارائه نتایج و مواردی دیگر، موتورهای جستجوگر به انواع گوناگونی تقسیم می‌شوند که عبارتند از :

Saerch Engine
Directory
Meta Search Engine
Pay Per Click Search Engine
Specialty Search Engine

الف ـ Saerch Engine یا موتور جستجوگر

در این نوع از موتور جستجوگر، کار جمع‌آوری اطلاعات بر عهده اسپایدرها است . در حالت کلی زمانی که صحبت از موتورهای جستجوگر می‌شود، مقصود، این نوع آن است.

پایگاه داده این نوع از موتور جستجوگر بزرگتر از سایر انواع است و اطلاعاتی را که آنها ارائه می‌دهند، معمولا به روزتر می‌باشد. عملیات به روز رسانی و گسترش پایگاه داده موتورهای جستجوگر از یک هفته تا چند ماه به طول می‌انجامد.

اسپایدرها، هیچ‌گاه از کار نمی‌ایستند و به طور مداوم به جمع‌آوری اطلاعات مشغول هستند. ممکن است اطلاعات جمع‌آوری شده توسط اسپایدرها از صفحات جدیدی باشد و یا اطلاعات به روز شده از صفحاتی بشد که قبلاً هم به آنها مراجعه کرده‌اند.

صحبت از تکنیک‌های بهینه‌سازی رتبه سایت‌ها می‌شود در واقع تکنیک‌هایی مطرح‌اند که برای کار با این نوع ازموتورهای جستجوگر مؤثرند . بعضی از این نوع موتورهای جستجوگر عبارتند از:
Google  MSN  Altavista  NorthernLight  WiseNut  Teoma

ب ـ Directory یا فهرست

دایرکتوری‌ها اطلاعات را در گروه‌های مختلف دسته‌بندی می‌کنند. تفاوت اصلی دایرکتوری با یک موتور جستجوگر در این است که دایرکتوری اسپایدر ندارد. دارندگان سایت‌ها به دایرکتوری مراجعه می‌کنند، گروه مناسب برای سایت خود را در آن بر می‌گزینند و سایت‌ خود را به آن گروه معرفی می‌کنند.

پس از آنکه اطلاعات سایت‌ها به گروه‌های مختلف ارسال شد ، ویراستاران دایرکتوری آن اطلاعات را بررسی می‌کنند. در صورتی که گروه درخواست شده با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد ، سایت معرفی شده را در گروه یاد شده می‌پذیرد و در غیر اینصورت از قبول آن امتناع می‌کنند.

در صورتی که کاربران استفاده درستی از گروه دایرکتوری بنماید می‌توانند اطلاعات مفیدی رابه کمک آنها کسب کنند. دایرکتوری از وجود یک سایت مطلع نمی‌گردد مگر زمانی که آن سایت به دایرکتوری معرفی شود تا در یکی از گروه‌های آن قرار گیرد.

یکی از ایراداتی که به دایرکتوری‌ها وارد می‌شود این است که سایت‌های مرده زیادی در خود دارند. به عبارت دیگر یک سایت بعد از آنکه به آن معرفی شده است دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آن به عنوان یک سایت فعال به کاربران معرفی می‌کند.

دایرکتوری‌های حرفه‌ای با استخدام ویراستاران زیادی تلاش بسیاری برای رفع این نقص می‌نمایند. امکان دارد دایرکتوری‌ها برای بررسی این مورد از اسپایدر‌ها هم کمک بگیرند .در این مورد خاص، کار اسپایدر این است که بررسی کند که آیا سایت‌هایی که قبلاً در گروه‌ها قرار گرفته‌اند ،هنوز هم فعال می‌باشند؟

قرار گرفتن در پایگاه داده دایرکتوری‌های عمده، نقش مهمی در کسب رتبه‌های بالا در موتور جستجوگر نوع اول دارد. دایرکتوریهای عمده عبارتند از:

Yahoo  Look Smart  Dmoz

ج ـ Meta Search Engine یا ابر جستجوگر

ابر جستجوگر از نتایج سایر موتور جستجوگر استفاده می‌کند. کار بدین صورت است که سئوالات کاربران را همزمان به موتور جستجوگر مختلفی ارسال و نتایج جستجوی آنها را بررسی می‌کند و در نهایت رتبه‌های بالای آنها را با اعمال پارمترهای مورد توجه الگوریتم رتبه‌بندی خود، به عنوان نتایج جستجوی خود نشان می‌دهد. این نوع موتور جستجوگر اسپایدر ندارد.

مهمترین آنها عبارنتد از:

Meta Crawler , Dogpile , IXQuick , Mamma , Vivisimo , ez2find

دـ Pay Per Click Search engine یا موتورهای جستجوگر رتبه‌بندی به ازای پول

با توجه به واژه کلیکی انتخابی، برای بالاترین رتبه، باید بالاترین قیمت نسبت به سایر متقاضیان پرداخت شود. در واقع نحوه ارائه نتایج جستجو در PPC با این ترتیب است که اگر سایتی خواهان بالاترین رتبه (رده اول) در نتایج جستجوی آن می‌باشد، باید بالاترین رقم به ازای هر کلیک را نسبت به تمام رقبا بپردازد.

اگر سایتی مکان اول را برای عبارت”” Persian carpet به قیمت 28 ریال خریده باشد هر بار که عبارت یاد شده جستجو گردد و کاربر با دنبال کردن پیوند ارائه شده به سایت خریدار مراجعه کند 28 ریال از سوی سایت خریدار رتبه به موتور جستجوگر باید پرداخته شود. اگر هزار نفر این کار را انجام دهند آنگاه 1000×28 ریال باید پرداخته شود.

این گونه نیست که این گونه از موتور جستجوگر فقط سایت هایی را نمایش دهند که با آنها قرارداد تجاری دارند. بلکه ابتدا تمام سایت هایی را که با آنها قرار داد تجاری دارند نمایش می‌دهد و سپس سایت های دیگر را برای تکمیل کردند نتایج جستجوی خود به سایت های یاد شده می افزایند .
روش ارائه نتایج در یک موتورهای جستجوگر رتبه به ازای پول

سایت های رده 110 و 111 برای عبارت “” free stuff هزینه می‌پردازند که بالاتر از سایت رده 112 ایستاده‌اند. به عبارت‌های listing sponsored و additional listing توجه کنید. فکرش را بکنید که 111 سایت حاضر به پرداخت پول برای این عبارت بوده‌اند در حالی که همه آنها می‌دانسته‌اند در چه رتبه‌ایی نشان داده خواهند شد.

اگر فرض کنیم که سایت رده 111 برای هر کلیک تنها یک سنت بپردازد و اختلاف هر رتبه با رتبه های دیگر تنها یک سنت باشد آنگاه سایت رتبه اول حاضر به پرداخت 111 سنت برای هر کلیک بوده است . سایت های را مشاهده کرده اند که حاضر به پرداخت 14 دلار به ازای هر کلیک نیز بوده اند.

این رقابت شدید در این نوع از موتورهای جستجوگر می‌تواند ناشی از بازده بسیار بالای این نوع موتورهای جستجوگر و همین طور اطمینان دارندگان سایت ها از فروش خود باشد . البته می توانید سایت هایی را که ناشیانه حاضر به پرداخت رقم بالایی را شده اند را هم به دلایل بالا بیافزاید.

✓ حتما بخوانید:  تاريخچه طراحی وب

دارنده سایت تنها زمانی پول می‌پردازد که واقعاً بیننده‌ای به سایت او بیائید. سایت تقریباً در عرض چند ساعت و یا حداکثر یک هفته در نتایج جستجو قرار می گیرد و دیگر نیازی به چندین ماه ماندن نیست تا در نتایج جستجوی سایر موتورهای جستجوگر قرار گیرد که آن هم معلوم نیست در چه رتبه‌ایی قرار خواهد گرفت.

سایتی اگر بالاترین رتبه را می‌خواهد کافی است که بالاترین قیمت را بپردازد و دیگر نیازی به کاربرد تکنیک‌های رایج برای کسب رتبه‌های بالا نیست.
یک سایت با استفاده از سیستم این موتورهای جستجوگر در نتایج جستجوی شرکای تجاری آنها هم قرار می‌گیرد.

Overture  Googole Adwords  Findwhat  kanoodle

ه ـ Specialty Search Engine یا موتورهای جستجوگر خاص

این نوع از موتورهای جستجوگر بر موضوعی خاص تمرکز دارند و تنها سایت‌های مرتبط با آن موضوع را در پایگاه داده خود قرار می‌دهند. به عنوان مثال یکی از آنها ممکن است تنها سایت‌های ایرانی را بپذیرد و موضوع فعالیتش سایت‌های ایرانی باشد.

این موتور جستجوگر معمولا اطلاعات تخصصی‌تری را ارائه می‌دهند زیرا معمولاً توسط افراد متخصص درآن زمینه اداره می‌شوند. موتور جستجوگر منطقه‌ای و موضوعی نیز با این دسته تعلق دارند. دراین مورد می‌توان به مواردی نظیر:
chemicalSearch , IndustrySearch اشاره کرد.

نسل بعدی موتور جستجوگر

سرعت باور نکردنی و دامنه عملکرد و دسترسی فوق‌العاده موتورهای پر قدرت جستجوی اینترنتی از یک محدودیت و شاید بتوان گفت نقطه ضعف اساسی رنج می‌برند. اینکه تنها در پاسخ به کلمات به کار می‌افتند، اگر لحظه‌ای عمقی به مسئله نگاه کنید ، متوجه موجودیت کسل کننده و یکنواخت این سایت‌ها خواهید شد.

این درحالی است که جهان فوق‌العاده درخشان، متنوع و مملو از اشیاء و الگوهایی است که هر یک در برگیرنده توصیفاتی قابل جستجو هستند. اکنون پژوهشگران عرصه کامپیوتر به امید بهره‌مندی هر چه بیشتر از این نعمات خداوندی ، موتور جستجوگر جدیدی طراحی کرده‌ند که می‌توانند منبع سرشاری از کاتالوگ‌های اشیا 3 بعدی مانند قطعات هواپیما یا مشخصه‌های معماری را در اختیار کاربران قرار دهند.

در ورود به این سایت‌ها تنها کاری که خود باید انجام دهد ، آن است که آنچه در ذهن خود دارد و به دنبالش است، با خطوط کلی ترسیم نماید. در این حالت موتور جستجوگر اشیا مشابه و هم‌تراز آن را در فهرست نتایج آن ارائه می‌کند.

کارتیک رامانی پروفسور دانشگاه پردیو و سازنده سیستمی که قادر به یافتن قطعات صنعتی طراحی شده توسط کامپیوتر می‌باشد، در مورد اختراع خود می‌گوید : ایده دانش و اطلاعات و بازیابی آن دانش مدت‌ها بود که توجه و کنجکاوی من را به خود جلب کرده بود و اکنون احساس می‌کنم که مکانیسم ابداعی‌ام مفهومی مستحکم و یکپارچه به این بازاریابی می‌بخشد.

رامانی انتظار دارد موتور جستجویش بویژه برای کمپانی‌های بزرگ صنعتی کاربرد‌های فراوانی داشته باشد خصوصا این که مهندسین این شرکت‌ها غالبا وقت و انرژی قابل توجهی را صرف طراحی یک قطعه تخصصی می‌کنند در حالی که پیشتر فرد دیگری نوع مشابه آنرا خلق کرده است، استفاده نموده و و یا کنار گذاشته است ریک جفز مهندس ارشد مرکز موتور‌های کاترپیلار معتقد است تکنولوژی رامانی می‌تواند به کمپانی‌ها در ساده ساختن صورت موجودی‌شان کمک نماید.

موسسه جفز به تنهایی ده‌ها هزار قطعه جورواجور تولید می‌کند جفز در تشریح بیشتر موضوع می‌گوید: اگر شما قصد طراحی یک زانویی جدید برای خط لوله نفت را داشته باشید، در کاخانه‌ها به وفور از این قطعه تولید می‌شود اما خلق CAD در حال حاضر گرچه بسیاری از آنها با کمک نرم‌افزار طراحی کامپیوتری می‌گردند، برای اینکه بصورت کاتالوگ درآیند، بایستی هر یک جداگانه مورد آزمایش قرار گیرند. کا کسل کننده‌ای که حتی اغلب انجام نمی‌گیرد زیرا عملی و معقول نیست.

حال با این روش کارخانجات می‌توانند صورت موجودی خود را به ساده‌ترین شیوه ممکن تهیه و ارائه نمایند . با بهره‌گیری از موتور جستجوی جدید، طراحان می‌توانند طرح قطعه مورد نیاز خود را بصورت کلی ترسیم کنند و ظرف مدت چند ثانیه تعداد بیشماری قطعه در قالب صورت موجودی‌های گوناگون در برابر دیدگانش ظاهر خواهد گشت که با نوع مورد درخواست آنها شباهت و حتی مطابقت خواهد داشت.

در صورتی که یک قلم از نتایج ارائه شده با اندک تفاوتهایی نزدیک به طرح مورد نظر کاربر باشد، وی می‌تواند اسکلتی از آن قطعه را مشاهده کرده و بر روی صفحه کامپیوتر خود آنرا دستکاری نماید به عنوان مثال ابعادش را کوتاه و بلند کرده و یا منحنی بسازد، سپس مجدداً‌ پایگاه داده‌های موتور جستجو را مورد کاوش قرار دهد.

در دنیای امروز نیاز برای سرعت در پروسه تولید محصولات بیش از هر زمان دیگری احساس می‌شود و این موتور جستجو از نوع پیشرفت‌هایی است که می‌تواند در تحقق این هدف، فوق‌العاده موثر واقع شود مضاف براین که کارآیی و بازده را نیز به نحوه قابل توجهی بالا می‌برد.

البته موتورهای جستجوی رایج در اینترنت هنوز در تلاش برای تسلط پیدا کردن بر تصاویر دو بعدی هستند به عنوان مثال برنامه جستجوی عکس گوگل نتایج نسبتاً خوبی ارائه می‌نماید اما عملاً‌ قادر به گشتن در مجموعه تصاویر خود نیست و بیشتر متن حاشیه‌ای طرح را ملاک کار قرار می‌دهد.

در هر حال موتور جستجوگر سه بعدی که به عنوان ابزاری خلاق و قدرتمند ظاهر گشته‌اند می‌روند تا عرصه کار با کامپیوترها را متحول سازند، نرم افزارهای دو سویه طراحی و مدل سازی نیز مجموعه طرحهای موجود برای جستجو را نه تنها در زمینه ‌های صنعتی بلکه در عرصه دنیاهای مجازی آن لاین گسترش داده‌اند.

محققان بسیاری در این حوزه وارد شده‌اند از آن جمله مهندسین کمپانی بوئینگ هستند که چند سالی است با هدف استفاده مجدد از برخی قطعات یک موتور جستجوی سه بعدی برای خود ابداع کرده‌اند.

پرفسور توماس فانخوسر و همکارانش از دانشگاه پرینستون نیز نوعی موتور جستجوی سه بعدی در اینترنت راه اندازی کرده‌اند که برای افراد این امکان را فراهم می‌آورد تا با استفاده از یک ماوس کامپیوتر طرح کلی یک شئی را ترسیم نموده، توضیحات متنی به آن اضافه کرده و سپس برای مدل‌هایی مشابه آن در پایگاه داده ‌هایی طراحی به جستجو بپردازند. نتایج می‌تواند شگفت آور و خیره کننده باشد به گونه‌ای که شما را به حیرت وا دارد.

حال پرسش اینجاست که یک برنامه کامپیوتری چگونه به دنبال اشیا می گردد. راز این دستاورد پدیده‌ای به نام ووکسل مالکین دوربین ‌های دیجیتال با پیکسل  آشنایی دارند که عنصر پایه‌ای یک تصویر دیجیتال است. هر پیکسل ذره کوچکی از رنگ می‌باشد.

به همین شکل ووکسل نیز عنصر اصلی یک شی سه بعدی است که درون کامپیوتر نمایش داده می‌شود. هر ووکسل که در برگیرنده حجم شی مورد نظر دارد. در که توسط کاربران ترسیم گردیده، به CAD برنامه  رامانی نیز بطور مثال طرح های ووکسل تبدیل می شوند.

سپس الگوهایی ووکسل موجود در پایگاه داده ها برای یافتن شباهت های احتمالی با طرح ترسیم شده کاربر مقایسه می شوند. به دلیل آنکه ووکسل‌ها بیشتر در برگیرنده حجم هستند تا شکل، برنامه مزبور می تواند مثلاً یک فنجان قهوه را به عنوان حجم کار در نظر گرفته و مشخصه گود و توخالی بودن آن را مد نظر قرار دهد بدون توجه به دسته توپری که می تواند داشته باشد.

مکانیسم جستجوی سه بعدی به تدریج از این هم هوشمند تر خواهد شد. این برنامه را می‌توان به گونه ای تجهیز کرد که با درک عمقی کاوش های کاربران، در نهایت الگوهای مشترک را از یکدیگر تمییز دهد. یک کامپیوتر می تواند نهایتاً تشخیص دهد که چند تصویر به ظاهر متفاوت همگی نشان دهنده یک انسان هستند حتی اگر در حالات و ژست های مختلف باشند.

اشتراک گذاری
برچسب‌ها:

مطالب مرتبط

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *