موتور جستجوگر
با پیشرفت بشر در زمینههای مختلف علمی و افزایش سطح آگاهی انسان درباره پدیدههای مختلف و البته نیاز رو به گسترش ما به دانش و اطلاعات در این عصر زمینه برای بروز پدیدههای مختلفی که بتواند خواستههای علمی و اطلاع رسانی انسان را برای برآورده سازد افزایش یافته است.
با ساخت کامپیوتر در اواسط قرن گذشته مقداری از نیازهای انسان برآورده شد با گذشت زمان این دستگاه در قسمتهای مختلف جامعه نفوذ کرد و تا امروز که در جاهایی مانند پزشکی و اداری استفاده میشود.
در دهههای پایانی قرن گذشته با افزایش نیازبه اطلاعات بصورت روزانه گسترش ارتباط بین سازمانها و نهادها . نیاز به یک شبکه جهانی احساس شد که هم اطلاعات به روز شده و فراوانی بتواند در آن وجود داشته باشد و هم به سادگی و ارزان در اختیار مردم قرار گیرد.
اینترنت بر این اساس شکل گرفت امروزه اینترنت به سرعت در حال وارد شدن به زندگی مردم است این رسانه با مطالب فراوان و متنوعی که دارد توانسته است قشرهای مختلف مردم را به خود جذب کند. امروزه عده زیادی از مردم عادی، سازمانها، در روز از اینترنت استفاده میکنند.
به همین خاطر به مکانیزمی نیاز شد که کاربران بتوانند امکان جستجو داشته باشند در نتیجه موتور جستجوگر در این رسانه ایجاد شده است تا بتواند مطالب مورد نظر کاربر را به سرعت پیدا کنند.
موتور جستجوگر از ابتدای تشکیل خود با امکان جستجوی مطلب در بعضی از سایتهای اینترنتی قرار گرفتند. این سایتها با گذشت زمان توانستند مکانیزم جستجوی خود را بهینه و از طرفی گستردهتر کنند. با گسترش استفاده از اینترنت احتیاج به موتور جستجوی فارسی بشدت مشاهده میشد که این کار توسط GOOGLE انجام شده است.
و میتوان به کمک آن اطلاعات فراوانی را بصورت فارسی در زمینههای مختلف بدست آورد. گستردگی این مطالب بقدری زیاد است که پیشنهاد میشود که هر کاربر اسم خود را یک بار در موتور جستجو نوشته و نتیجه کار را مشاهده کنند.
سایتهای موتور جستجوگر در حال حاضر نیز در حال بهتر کردن الگوریتم جستجوی خود و اضافه کردن کاراییهای دیگر به سایت خود هستند که در قسمت پایانی تحقیق آمده است. در این تحقیق سعی شده است مطالبی راجع به موتور جستجو و انواع آن و نسل
آینده آنها مطالبی آورده شده است.
موتور جستجوگر چگونه کار می کند؟
وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارائه میشود، کاربر در واقع نتیجه کار بخشهای متفاوت آن موتور جستجوگر را میبینند.
موتور جستجوگر قبلاً پایگاه دادهاش «Database » را آماده کرده است و این گونه نیست که در همان لحظه جستجو، تمام وب را بگردد.
همه آنها در زمان پاسخگوی به کاربران، تنها در پایگاه دادهای که در اختیار دارند به جستجو میپردازند و نه در وب موتور جستجوگر به کمک بخشهای متفاوت خود، اطلاعات مورد نیاز قبلاً جمعآوری، تجزیه و تحلیل میکند و آنرا در پایگاه دادهاش ذخیره مینماید، بخشهای مجزای یک موتور جستجوگر عبارتند از:
Spider یا عنکبوت
Crawler یا خزنده
Indexer یا بایگانی کننده
Database یا پایگاه داده
Ranker یا سیستم رتبه بندی
الف ـ Spider (عنکبوت)
اسپایدر یا روبوت « Robot » نرم افزاری است که کار جمعآوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر میزند، محتوای آنها را میخواند و اطلاعات مورد نیاز موتور جستجوگر را جمعآوری میکند و آنرا در اختیار سایر بخشهای موتور جستجوگر قرار میدهد.
کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید میکنند، اسپایدر هم این کار را انجام میدهد با این تفاوت که اسپایدر کدهای HTML صفحات را میبیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها « رد پا بر جای میگذارد.
شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، میتوانید مشخص کنید که اسپایدر کدام موتور جستجوگر صفحات سایت را مورد بازدید قرار دادهاند .
اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عدهای از آنها به سایتهای مختلف مراجعه میکنند و فقط به بررسی فعال بودن لینکهای آنها میپردازند و یا به دنبال آدرس پست الکترونیکی « Email » افراد میگردند .
ب ـ Crawler (خزنده )
کراولر، نرم افزاری است که به عنوان فرمانده برای اسپایدر عمل میکند. کراولر مشخص میکند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم میگیرد که کدام یک از لینکهای صفحهای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضیها را دنبال کند و یا هیچ کدام را دنبال نکند.
کراولر، ممکن است قبلاً توسط دارندگان موتورهای جستجوگر برنامهریزی شده باشد که آدرسهای خاصی را طبق برنامه در اختیار اسپایدر قرار دهد تا از آنها دیدن کند .
دنبال کردن لینکهای یک صفحه به این بستگی دارد که موتورهای جستجوگر چه حجمی از اطلاعات یک سایت را میتواند در پایگاه دادهاش ذخیره کندو همچنین ممکن است اجازه دسترسی به عضی از صفحات به موتورهای جستجوگر داده نشده باشد.
شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات شما را با خود ببرند، میتوانید آنها را از بعضی از صفحات سایتتان دور کنید و اجازه دسترسی به محتوای آن صفحات را به موتورهای جستجوگر ندهید. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام میشود. به عمل کراولر، خزش (Crawling ) میگویند.
ج ـ Indexer ( بایگانی کننده )
تمام اطلاعات جمعآوری شده توسط اسپایدر در اختیار ایندکسر قرار میگیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار میگیرند و به بخشهای متفاوتی تقسیم میشوند. تجزیه و تحلیل بدین معنی است که مشخص میشود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، کلمات چند بار تکرار شده است، کلمات در کجای صفحه قرار دارند.
در حقیقت ایندکسر صفحه را به پارامترهای آن خرد میکند و تمام این پارامترها را به یک مقیاس عددی تبدیل میکند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.
در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم دادهها از عضی کلمات که بسیار رایج هستند صرفنظر میکند. کلماتی نظیر a ، an ، the ، www ، is از این گونه کلمات هستند.
د ـ Database ( پایگاه داده )
تمام دادهها تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال میگردد. در این بخش، دادهها گروهبندی، کدگذاری، و ذخیره میشود. دادهها قبل از آنکه ذخیره شوند، فشرده میشوند تا حجم کمی را اشغال کنند.
یک موتور جستجوگر باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز کند. بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب میگردد. یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده است.
و ـ Ranker ( سیستم رتبه بندی )
بعد از آنکه مراحل قبل انجام شد، موتور جستجوگر آماده پاسخگویی به سئوالات کاربران است. کاربران چند کلمه را در جعبه جستجوی Search Box آن وارد میکنند و سپس با فشردن Enter منتظر پاسخ میمانند. در این مرحله، سیستم رتبه بندی وارد عمل میشود و ابتدا تمام صفحات موجود در پایگاه داده، که به موضوع جستجو شده، مرتبط هستند را مشخص میکند. آنها را به ترتیب از بیشترین ارتباط تا کمترین ارتباط مرتب میکند و در نتایج جستجو به کاربر ارائه میکند.
اگر موتور جستجوگر بهترین و کاملترین پایگاه داده را داشته باشد اما نتواند پاسخهای مرتبطی را ارائه کند، یک موتور جستجوگر ضعیف خواهد بود .
سیستم رتبهبندی قلب تپنده یک موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد. سیستم رتبه بندی برای پاسخگویی به سئوالات کاربران، پارامترهای بسیاری را در نظر میگیرد تا بتواند بهترین پاسخها را در اختیار آنها قرار دهد.
الگوریتم، مجموعهای از دستورالعملها است که موتور جستجوگر با اعمال آنها بر پارامترهای صفحات موجود در پایگاه دادهاش ، تصمیم میگیرد که صفحات مرتبط را چگونه در نتایج جستجو ، مرتب کند . در حال حاضر قدرتمندترین سیستم رتبهبندی را گوگل دراختیار دارد.
میتوان با ادغام کردن وظیفههای اسپایدر با کراولر و همچنین ایندکسر با پایگاه داده موتور جستجوگر را شامل سه بخش زیر دانست که این گونه تقسمبندی هم درست میباشد:
کراولر بایگانی سیستم رتبهبندی
برای سهولت در بیان مطالب بعدی هرگاه صحبت از بایگانی کردن ( شدن ) به میان میآید ، مقصود این است که صفحه تجزیه و تحلیل و به پایگاه داده موتور جستجوگر وارد میشود. برای آنکه تصور درستی از نحوه کار یک موتور جستجوگر داشته باشید مثال غیر متعارف زیر را با هم بررسی میکنیم.
یک شکارچی تصمیم به شکار میگیرد:
پروتکل Robots:
ابتدا تمام محدودیتهای موجود برای شکار در این منطقه را بررسی میکند:
آیا در این منطقه میتوان به شکار پرداخت؟
کدام حیوانات را میتوان شکار کرد؟
حداکثر تعداد شکار چه میزانی است؟
انواع موتورهای جستجوگر:
موتور جستجوگر با درجات متفاوتی از موفقیت ) در واقع یک کار انجام میدهند: فراهم آوردن یک وسیله جستجوی ساده برای کمک به کاربران در رسیدن به اطلاعات مورد نیاز برای نیل به این مهم ، موتورهای جستجوگر از اطلاعات موجود در پایگاه دادهشان کمک میگیرند.
اطلاعات این پایگاه داده نیز به روشهای گوناگونی تامین میشود . کار جمعآوری داده را اسپایدرها بر عهده دارند. اما آیا همه موتور جستجوگر، اسپایدر دارند؟ آیا همه اسپایدرها مثل هم کار میکنند؟ با توجه به نوع جمعآوری اطلاعات، شیوه ارائه نتایج و مواردی دیگر، موتورهای جستجوگر به انواع گوناگونی تقسیم میشوند که عبارتند از :
Saerch Engine
Directory
Meta Search Engine
Pay Per Click Search Engine
Specialty Search Engine
الف ـ Saerch Engine یا موتور جستجوگر
در این نوع از موتور جستجوگر، کار جمعآوری اطلاعات بر عهده اسپایدرها است . در حالت کلی زمانی که صحبت از موتورهای جستجوگر میشود، مقصود، این نوع آن است.
پایگاه داده این نوع از موتور جستجوگر بزرگتر از سایر انواع است و اطلاعاتی را که آنها ارائه میدهند، معمولا به روزتر میباشد. عملیات به روز رسانی و گسترش پایگاه داده موتورهای جستجوگر از یک هفته تا چند ماه به طول میانجامد.
اسپایدرها، هیچگاه از کار نمیایستند و به طور مداوم به جمعآوری اطلاعات مشغول هستند. ممکن است اطلاعات جمعآوری شده توسط اسپایدرها از صفحات جدیدی باشد و یا اطلاعات به روز شده از صفحاتی بشد که قبلاً هم به آنها مراجعه کردهاند.
صحبت از تکنیکهای بهینهسازی رتبه سایتها میشود در واقع تکنیکهایی مطرحاند که برای کار با این نوع ازموتورهای جستجوگر مؤثرند . بعضی از این نوع موتورهای جستجوگر عبارتند از:
Google MSN Altavista NorthernLight WiseNut Teoma
ب ـ Directory یا فهرست
دایرکتوریها اطلاعات را در گروههای مختلف دستهبندی میکنند. تفاوت اصلی دایرکتوری با یک موتور جستجوگر در این است که دایرکتوری اسپایدر ندارد. دارندگان سایتها به دایرکتوری مراجعه میکنند، گروه مناسب برای سایت خود را در آن بر میگزینند و سایت خود را به آن گروه معرفی میکنند.
پس از آنکه اطلاعات سایتها به گروههای مختلف ارسال شد ، ویراستاران دایرکتوری آن اطلاعات را بررسی میکنند. در صورتی که گروه درخواست شده با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد ، سایت معرفی شده را در گروه یاد شده میپذیرد و در غیر اینصورت از قبول آن امتناع میکنند.
در صورتی که کاربران استفاده درستی از گروه دایرکتوری بنماید میتوانند اطلاعات مفیدی رابه کمک آنها کسب کنند. دایرکتوری از وجود یک سایت مطلع نمیگردد مگر زمانی که آن سایت به دایرکتوری معرفی شود تا در یکی از گروههای آن قرار گیرد.
یکی از ایراداتی که به دایرکتوریها وارد میشود این است که سایتهای مرده زیادی در خود دارند. به عبارت دیگر یک سایت بعد از آنکه به آن معرفی شده است دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آن به عنوان یک سایت فعال به کاربران معرفی میکند.
دایرکتوریهای حرفهای با استخدام ویراستاران زیادی تلاش بسیاری برای رفع این نقص مینمایند. امکان دارد دایرکتوریها برای بررسی این مورد از اسپایدرها هم کمک بگیرند .در این مورد خاص، کار اسپایدر این است که بررسی کند که آیا سایتهایی که قبلاً در گروهها قرار گرفتهاند ،هنوز هم فعال میباشند؟
قرار گرفتن در پایگاه داده دایرکتوریهای عمده، نقش مهمی در کسب رتبههای بالا در موتور جستجوگر نوع اول دارد. دایرکتوریهای عمده عبارتند از:
Yahoo Look Smart Dmoz
ج ـ Meta Search Engine یا ابر جستجوگر
ابر جستجوگر از نتایج سایر موتور جستجوگر استفاده میکند. کار بدین صورت است که سئوالات کاربران را همزمان به موتور جستجوگر مختلفی ارسال و نتایج جستجوی آنها را بررسی میکند و در نهایت رتبههای بالای آنها را با اعمال پارمترهای مورد توجه الگوریتم رتبهبندی خود، به عنوان نتایج جستجوی خود نشان میدهد. این نوع موتور جستجوگر اسپایدر ندارد.
مهمترین آنها عبارنتد از:
Meta Crawler , Dogpile , IXQuick , Mamma , Vivisimo , ez2find
دـ Pay Per Click Search engine یا موتورهای جستجوگر رتبهبندی به ازای پول
با توجه به واژه کلیکی انتخابی، برای بالاترین رتبه، باید بالاترین قیمت نسبت به سایر متقاضیان پرداخت شود. در واقع نحوه ارائه نتایج جستجو در PPC با این ترتیب است که اگر سایتی خواهان بالاترین رتبه (رده اول) در نتایج جستجوی آن میباشد، باید بالاترین رقم به ازای هر کلیک را نسبت به تمام رقبا بپردازد.
اگر سایتی مکان اول را برای عبارت”” Persian carpet به قیمت ۲۸ ریال خریده باشد هر بار که عبارت یاد شده جستجو گردد و کاربر با دنبال کردن پیوند ارائه شده به سایت خریدار مراجعه کند ۲۸ ریال از سوی سایت خریدار رتبه به موتور جستجوگر باید پرداخته شود. اگر هزار نفر این کار را انجام دهند آنگاه ۱۰۰۰×۲۸ ریال باید پرداخته شود.
این گونه نیست که این گونه از موتور جستجوگر فقط سایت هایی را نمایش دهند که با آنها قرارداد تجاری دارند. بلکه ابتدا تمام سایت هایی را که با آنها قرار داد تجاری دارند نمایش میدهد و سپس سایت های دیگر را برای تکمیل کردند نتایج جستجوی خود به سایت های یاد شده می افزایند .
روش ارائه نتایج در یک موتورهای جستجوگر رتبه به ازای پول
سایت های رده ۱۱۰ و ۱۱۱ برای عبارت “” free stuff هزینه میپردازند که بالاتر از سایت رده ۱۱۲ ایستادهاند. به عبارتهای listing sponsored و additional listing توجه کنید. فکرش را بکنید که ۱۱۱ سایت حاضر به پرداخت پول برای این عبارت بودهاند در حالی که همه آنها میدانستهاند در چه رتبهایی نشان داده خواهند شد.
اگر فرض کنیم که سایت رده ۱۱۱ برای هر کلیک تنها یک سنت بپردازد و اختلاف هر رتبه با رتبه های دیگر تنها یک سنت باشد آنگاه سایت رتبه اول حاضر به پرداخت ۱۱۱ سنت برای هر کلیک بوده است . سایت های را مشاهده کرده اند که حاضر به پرداخت ۱۴ دلار به ازای هر کلیک نیز بوده اند.
این رقابت شدید در این نوع از موتورهای جستجوگر میتواند ناشی از بازده بسیار بالای این نوع موتورهای جستجوگر و همین طور اطمینان دارندگان سایت ها از فروش خود باشد . البته می توانید سایت هایی را که ناشیانه حاضر به پرداخت رقم بالایی را شده اند را هم به دلایل بالا بیافزاید.
دارنده سایت تنها زمانی پول میپردازد که واقعاً بینندهای به سایت او بیائید. سایت تقریباً در عرض چند ساعت و یا حداکثر یک هفته در نتایج جستجو قرار می گیرد و دیگر نیازی به چندین ماه ماندن نیست تا در نتایج جستجوی سایر موتورهای جستجوگر قرار گیرد که آن هم معلوم نیست در چه رتبهایی قرار خواهد گرفت.
سایتی اگر بالاترین رتبه را میخواهد کافی است که بالاترین قیمت را بپردازد و دیگر نیازی به کاربرد تکنیکهای رایج برای کسب رتبههای بالا نیست.
یک سایت با استفاده از سیستم این موتورهای جستجوگر در نتایج جستجوی شرکای تجاری آنها هم قرار میگیرد.
Overture Googole Adwords Findwhat kanoodle
ه ـ Specialty Search Engine یا موتورهای جستجوگر خاص
این نوع از موتورهای جستجوگر بر موضوعی خاص تمرکز دارند و تنها سایتهای مرتبط با آن موضوع را در پایگاه داده خود قرار میدهند. به عنوان مثال یکی از آنها ممکن است تنها سایتهای ایرانی را بپذیرد و موضوع فعالیتش سایتهای ایرانی باشد.
این موتور جستجوگر معمولا اطلاعات تخصصیتری را ارائه میدهند زیرا معمولاً توسط افراد متخصص درآن زمینه اداره میشوند. موتور جستجوگر منطقهای و موضوعی نیز با این دسته تعلق دارند. دراین مورد میتوان به مواردی نظیر:
chemicalSearch , IndustrySearch اشاره کرد.
نسل بعدی موتور جستجوگر
سرعت باور نکردنی و دامنه عملکرد و دسترسی فوقالعاده موتورهای پر قدرت جستجوی اینترنتی از یک محدودیت و شاید بتوان گفت نقطه ضعف اساسی رنج میبرند. اینکه تنها در پاسخ به کلمات به کار میافتند، اگر لحظهای عمقی به مسئله نگاه کنید ، متوجه موجودیت کسل کننده و یکنواخت این سایتها خواهید شد.
این درحالی است که جهان فوقالعاده درخشان، متنوع و مملو از اشیاء و الگوهایی است که هر یک در برگیرنده توصیفاتی قابل جستجو هستند. اکنون پژوهشگران عرصه کامپیوتر به امید بهرهمندی هر چه بیشتر از این نعمات خداوندی ، موتور جستجوگر جدیدی طراحی کردهند که میتوانند منبع سرشاری از کاتالوگهای اشیا ۳ بعدی مانند قطعات هواپیما یا مشخصههای معماری را در اختیار کاربران قرار دهند.
در ورود به این سایتها تنها کاری که خود باید انجام دهد ، آن است که آنچه در ذهن خود دارد و به دنبالش است، با خطوط کلی ترسیم نماید. در این حالت موتور جستجوگر اشیا مشابه و همتراز آن را در فهرست نتایج آن ارائه میکند.
کارتیک رامانی پروفسور دانشگاه پردیو و سازنده سیستمی که قادر به یافتن قطعات صنعتی طراحی شده توسط کامپیوتر میباشد، در مورد اختراع خود میگوید : ایده دانش و اطلاعات و بازیابی آن دانش مدتها بود که توجه و کنجکاوی من را به خود جلب کرده بود و اکنون احساس میکنم که مکانیسم ابداعیام مفهومی مستحکم و یکپارچه به این بازاریابی میبخشد.
رامانی انتظار دارد موتور جستجویش بویژه برای کمپانیهای بزرگ صنعتی کاربردهای فراوانی داشته باشد خصوصا این که مهندسین این شرکتها غالبا وقت و انرژی قابل توجهی را صرف طراحی یک قطعه تخصصی میکنند در حالی که پیشتر فرد دیگری نوع مشابه آنرا خلق کرده است، استفاده نموده و و یا کنار گذاشته است ریک جفز مهندس ارشد مرکز موتورهای کاترپیلار معتقد است تکنولوژی رامانی میتواند به کمپانیها در ساده ساختن صورت موجودیشان کمک نماید.
موسسه جفز به تنهایی دهها هزار قطعه جورواجور تولید میکند جفز در تشریح بیشتر موضوع میگوید: اگر شما قصد طراحی یک زانویی جدید برای خط لوله نفت را داشته باشید، در کاخانهها به وفور از این قطعه تولید میشود اما خلق CAD در حال حاضر گرچه بسیاری از آنها با کمک نرمافزار طراحی کامپیوتری میگردند، برای اینکه بصورت کاتالوگ درآیند، بایستی هر یک جداگانه مورد آزمایش قرار گیرند. کا کسل کنندهای که حتی اغلب انجام نمیگیرد زیرا عملی و معقول نیست.
حال با این روش کارخانجات میتوانند صورت موجودی خود را به سادهترین شیوه ممکن تهیه و ارائه نمایند . با بهرهگیری از موتور جستجوی جدید، طراحان میتوانند طرح قطعه مورد نیاز خود را بصورت کلی ترسیم کنند و ظرف مدت چند ثانیه تعداد بیشماری قطعه در قالب صورت موجودیهای گوناگون در برابر دیدگانش ظاهر خواهد گشت که با نوع مورد درخواست آنها شباهت و حتی مطابقت خواهد داشت.
در صورتی که یک قلم از نتایج ارائه شده با اندک تفاوتهایی نزدیک به طرح مورد نظر کاربر باشد، وی میتواند اسکلتی از آن قطعه را مشاهده کرده و بر روی صفحه کامپیوتر خود آنرا دستکاری نماید به عنوان مثال ابعادش را کوتاه و بلند کرده و یا منحنی بسازد، سپس مجدداً پایگاه دادههای موتور جستجو را مورد کاوش قرار دهد.
در دنیای امروز نیاز برای سرعت در پروسه تولید محصولات بیش از هر زمان دیگری احساس میشود و این موتور جستجو از نوع پیشرفتهایی است که میتواند در تحقق این هدف، فوقالعاده موثر واقع شود مضاف براین که کارآیی و بازده را نیز به نحوه قابل توجهی بالا میبرد.
البته موتورهای جستجوی رایج در اینترنت هنوز در تلاش برای تسلط پیدا کردن بر تصاویر دو بعدی هستند به عنوان مثال برنامه جستجوی عکس گوگل نتایج نسبتاً خوبی ارائه مینماید اما عملاً قادر به گشتن در مجموعه تصاویر خود نیست و بیشتر متن حاشیهای طرح را ملاک کار قرار میدهد.
در هر حال موتور جستجوگر سه بعدی که به عنوان ابزاری خلاق و قدرتمند ظاهر گشتهاند میروند تا عرصه کار با کامپیوترها را متحول سازند، نرم افزارهای دو سویه طراحی و مدل سازی نیز مجموعه طرحهای موجود برای جستجو را نه تنها در زمینه های صنعتی بلکه در عرصه دنیاهای مجازی آن لاین گسترش دادهاند.
محققان بسیاری در این حوزه وارد شدهاند از آن جمله مهندسین کمپانی بوئینگ هستند که چند سالی است با هدف استفاده مجدد از برخی قطعات یک موتور جستجوی سه بعدی برای خود ابداع کردهاند.
پرفسور توماس فانخوسر و همکارانش از دانشگاه پرینستون نیز نوعی موتور جستجوی سه بعدی در اینترنت راه اندازی کردهاند که برای افراد این امکان را فراهم میآورد تا با استفاده از یک ماوس کامپیوتر طرح کلی یک شئی را ترسیم نموده، توضیحات متنی به آن اضافه کرده و سپس برای مدلهایی مشابه آن در پایگاه داده هایی طراحی به جستجو بپردازند. نتایج میتواند شگفت آور و خیره کننده باشد به گونهای که شما را به حیرت وا دارد.
حال پرسش اینجاست که یک برنامه کامپیوتری چگونه به دنبال اشیا می گردد. راز این دستاورد پدیدهای به نام ووکسل مالکین دوربین های دیجیتال با پیکسل آشنایی دارند که عنصر پایهای یک تصویر دیجیتال است. هر پیکسل ذره کوچکی از رنگ میباشد.
به همین شکل ووکسل نیز عنصر اصلی یک شی سه بعدی است که درون کامپیوتر نمایش داده میشود. هر ووکسل که در برگیرنده حجم شی مورد نظر دارد. در که توسط کاربران ترسیم گردیده، به CAD برنامه رامانی نیز بطور مثال طرح های ووکسل تبدیل می شوند.
سپس الگوهایی ووکسل موجود در پایگاه داده ها برای یافتن شباهت های احتمالی با طرح ترسیم شده کاربر مقایسه می شوند. به دلیل آنکه ووکسلها بیشتر در برگیرنده حجم هستند تا شکل، برنامه مزبور می تواند مثلاً یک فنجان قهوه را به عنوان حجم کار در نظر گرفته و مشخصه گود و توخالی بودن آن را مد نظر قرار دهد بدون توجه به دسته توپری که می تواند داشته باشد.
مکانیسم جستجوی سه بعدی به تدریج از این هم هوشمند تر خواهد شد. این برنامه را میتوان به گونه ای تجهیز کرد که با درک عمقی کاوش های کاربران، در نهایت الگوهای مشترک را از یکدیگر تمییز دهد. یک کامپیوتر می تواند نهایتاً تشخیص دهد که چند تصویر به ظاهر متفاوت همگی نشان دهنده یک انسان هستند حتی اگر در حالات و ژست های مختلف باشند.