سال انتشار: ۱۳۹۱

محل انتشار: همایش منطقه ای علوم کامپیوتر، مهندسی کامپیورتر و فناوری اطلاعات

تعداد صفحات: ۷

نویسنده(ها):

محمد رضا فرقانی – کارشناسی ارشد مهندسی نرم‌افزار – دانشگاه آزاد اسلامی واحد نجف آباد – ع

چکیده:

یکی از چالش‌های پر دردسر و مشکل ساز در اینترنت فعلی ، افزایش روزافزون و تصاعدی صفحات وب و آرزوهای آن‌ها و عدم کنترل سیستماتیک روی آن‌ها و همچنین کاهش دمای صورت ذخیره، بازیابی و جستجوی آن‌ها و اطلاعات در آن‌ها می‌باشد. اکثر موتورهای جستجو از حافظه هیجان پی و از تکنیک‌های جستجوی قدیمی و سنتی نظیر جست‌وجوی خطی و یا بعضا اینکه منطق فازی برای این امر استفاده می‌کنند. موتورهای جستجو صرفاً از آدرس‌های URL به منظور جستجو و نمایش صفحات درخواست شده بهره می‌جوید در حالی که موتورهای جست و جوی عنکبوتی می‌بایست که با بررسی آماری دسترسی های قبلی به URL درخواست شده این آدرس را در آدرس‌های مهم جستجوگر برای دسترسی سریع‌تر کاربران این صفحات در جست‌وجو های بعدی قرار دهد. دو مشکل عمده در این مبحث وجود دارد: یکی ظرفیت کم و محدود حافظ سرویس دهنده هاون رابطه‌ها ی جستجو و دیگری توانایی در صورتی که در پردازش این سوابق و جستجو ها می‌باشد . یک مشکل معمول موتورهای جستجو و WEB SPIDER ها با مقیاس بزرگ اینست که چگونه تعداد زیادی از آدرس‌های کاراکتری یا URL را که با آن‌ها مواجه می‌شود کنترل کند. موتورهای جست و جوی قدیمی که سخت برای ذخیره آدرس‌های URL بدون هیچ گونه فشرده سازی استفاده می‌کردند که این عمل باعث کارایی کند و غذای زیاد می‌شد. در این مقاله یک الگوریتم فشرده سازی URL شرح داده شده که اجازه می‌دهد فشرده سازی و بازسازی به شکل مؤثری انجام شود. الگوریتم فشرده سازی در یک طرح کدگذاری کتاب به منظور گشودن URL هایی که پیشرفت‌های مشترک را به اشتراک گذاشته است و یک درخت AVL یا همان ADELSON_VELSKII LANDIS به منظور سرعت جست‌وجوی مقصر پایه‌گذاری شده است.