موتور جستجو
موتور جستجو (پردازش)
موتور جستجو (به انگلیسی: Search Engine) یا جویشگر، در فرهنگ رایانه، به طور عمومی به برنامهای گفته میشود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو میکند. در اینترنت به برنامهای گفته میشود که کلمات کلیدی موجود در فایلها و سندهای وب جهانی، گروههای خبری، منوهای گوفر و آرشیوهای FTP را جستجو میکند. جویشگر های زیادی وجود دارند که امروزه از معروفترین و پراستفاده ترین آنها میتوان به google و یاهو! جستجو اشاره کرد.
بهینهسازی موتور جستجو
بهینهسازی موتور جستجو (به انگلیسی: Search engine optimization (SEO)) که گاهی در فارسی به آن سئو گفته میشود عملیاتی است که برای بهبود دید یک وبگاه یا یک صفحهٔ وب در صفحه نتایج موتورهای جستجو که میتواند طبیعی و یا الگوریتمی باشد، میگویند. این یکی از روشهای بازاریابی موتور جستجو است. به صورت کلی وبگاههایی که دارای بالاترین مکان و بیشترین تکرار در صفحهٔ نتایج موتورهای جستجو باشند، بازدیدکنندهٔ بیشتری از طریق موتورهای جستجو به دست میآورند.برای وبمسترها یکی از عوامل مهم و حیاتی بدست اوردن کاربران جدید از موتورهای جستجو و بخصوص گوگل می باشد.
تاریخچه
علم سئو در اواسط دهه ۱۹۹۰ توسط وب مستر ها و مدیران سایتهای بزرگ شروع شد. در ابتدا همه وب مسترها می بایست تمام صفحات خود را برای آمدن خزنده ها به سایت آنها ثبت می کردند تا در نهایت صفحات آنها در نتایج جستجو به نمایش گذاشته می شد. امروزه با رشد اینترنت فروش خدمات اینترنتی هم افزایش یافته است.
روشها
شاخص گذاری کردن
موتورهای جستجوی پیشتاز همچون Yahoo!،Google و Bing از خزندهها جهت یافتن صفحات برای نتایج جستجوی الگوریتمیک استفاده میکنند. صفحاتی که از داخل باقی صفحات ایندکس شده توسط موتورهای جستجو Link شدهاند نیاز به ارسال به موتور جستجو نداشته و بصورت خودکار پیدا میشوند. بعضی از موتورهای جستجو ازجمله!Yahoo سرویس پولی ارسال را پیاده میکنند که استفاده از خزندهها را هم بصورت مجموعهای از قیمتها و نیز بصورت سیستم بها به ازاء هر Click، اجرا میکند. این برنامهها معمولاً قرارگیری در بانک اطلاعاتی موتور جستجو را ضمانت کرده و در قبال رتبهای مشخص برای صفحه در لیست نتایج جستجو ضمانتی نمیکنند. دو فهرست اصلی اینترنتی یعنی Yahoo Directory و Open Directory Project، هردو نیاز به ارسال دستی و بررسی انسانی دارند.Google ابزاری به نام Google Webmaster Tools ارائه میدهد که در آن میتوان نقشه سایت را توسط خوراک XML ایجاد کرده و بصورت رایگان ارسال نمود تا از یافته شدن تمام صفحات حتی صفحاتی که بصورت خودکار از طریق دنبال کردن Linkها پیدا نمیشوند، اطمینان حاصل نمود. خزندههای موتورهای جستجو میتوانند به عوامل مختلفی در هنگام خزیدن در یک سایت توجه کنند. تمامی صفحات ایندکس نمیشوند. همچنین فاصله یک صفحه از ریشه سایت میتواند عاملی در پیدا شدن یا عدم آن توسط خزندههای موتورهای جستجو باشد. امروزه بسیاری از شرکتهای مطرح در دنیا به بررسی و اجرای خدمات سئو برای شرکتهای مختلف مشغول هستند.
صفحه فرود یا landing page
یکی از فاکتورهای مهم در خصوص سئو مشخص کردن صفحات فرود یا landing page است.
انتخاب کلید واژههای مناسب
انتخاب کلید واژههای مناسب یکی از فاکتورهای مهم در این رابطهاست که بایستی توسط دارندگان وب سایت و برنامه نویسان در نظر گرفته شود.
جلوگیری از اجرای خزندهها در صفحات
وبمسترها برای جلوگیری از نتایج ناخواسته در شاخصهای جستجومیتوانندعنکبوتهایی توسط فایل استاندارد robots.txt که در فهرست ریشه دامنه ذخیره میشود، بسازند که فایلها و فهرستهای خاصی را مورد خزیدن (Crawl)قرار ندهد.
تولید محتوای جدید و کاربرپسند
یکی از کارهای مهمی که وب مسترها برای بهینه سازی سایت خود و یا سایت های دیگران انجام می دهند تولید محتوای مناسب و جدید برای آن سایت می باشد. محتوای مناسب علاوه بر اینکه بازدید یک سایت را بالا می برد اعتبار سایت را نزد موتورهای جستجو افزایش می دهد و می توانید لینک های طبیعی برای سایت ایجاد کند.
الگوریتم جستجو
در علوم کامپیوتر و ریاضیات، یک الگوریتم جستجو، الگوریتمی است که یک مساله را به عنوان ورودی میگیرد و بعد از ارزیابی کردن راه حلهای ممکن، یک راه حل برای آن مساله برمی گرداند.مجموعهٔ راه حلهای ممکن برای یک مساله را فضای جستجو مینامند.بعضی از الگوریتمها که با عنوان الگوریتمهای ناآگاهانه شناخته میشوند الگوریتمهایی هستند که از متدهای سادهای برای جستجوی فضای نمونه استفاده میکنند.در حالی که الگوریتمهای آگاهانه با استفاده روشهایی مبتنی بر دانش در بارهٔ ساختار فضای جستجو، میکوشند تا زمان جستجو را کاهش دهند.
رده بندی
در کتاب راسل این الگوریتمها به شکل زیر رده بندی شدهاند.
الگوریتمهای ناآگاهانه
الگوریتم نخست-پهنا
الگوریتم نخست-ژرفا
الگوریتمهای آگاهانه
الگوریتم نخست-بهترین
الگوریتم مکاشفهای
جستجوی ناآگاهانه
یک الگوریتم جستجوی ناآگاهانه الگوریتمی است که به ماهیت مساله کاری ندارد.از این رو میتوانند به طور عمومی طراحی شوند و از همان طراحی برای محدودهٔ عظیمی از مسائل استفاده کنند، این امر نیاز به طراحی انتزاعی دارد. از جمله مشکلاتی که این چنین الگوریتمهایی دارند این است که اغلب فضای جستجو بسیار بزرگ است و نیازمند زمان زیادی (حتی برای نمونههای کوچک) میباشد.از این رو برای بالا بردن سرعت پردازش غالبا از الگوریتمهای آگاهانه استفاده میکنند.
جستجوی لیست
الگوریتمهای جستجوی لیست شاید از ابتدایی ترین انواع الگوریتمهای جستجو باشند.هدف آن پیدا کردن یک عنصر از مجموعهای از کلید هاست(ممکن است شامل اطلاعات دیگری مرتبط با آن کلید نیز باشد). ساده ترین این الگوریتمها، الگوریتم جستجوی ترتیبی است که هر عنصر از لیست را با عنصر مورد نظر مقایسه میکند. زمان اجرای این الگوریتم از (O(n است وقتی که n تعداد عناصر در لیست باشد. اما میتوان از روش دیگری استفاده کرد که نیازی به جستجوی تمام لیست نباشد.جستجوی دودویی اندکی از جستجوی خطی است.زمان اجرای آن از(O(lgn است.این روش برای لیستی با تعداد دادهٔ زیاد بسیار کار آمد تر از روش الگوریتم جستجوی ترتیبی است.اما در این روش لیست باید قبل از جستجو مرتب شده باشد.{{جستجو با میان یابی برای دادههای مرتب شده با تعداد زیاد و توزیع یکنواخت، مناسب تر از جستجوی دودویی است.زمان اجرای آن به طور متوسط ((O(lg(lgn است ولی بدترین زمان اجرای آن (O(n میباشد. الگوریتم graver الگوریتم پلهای است که برای لیستهای مرتب نشده استفاده میشود. جدول درهمسازی نیز برای جستجوی لیست به کار میرود. به طور متوسط زمان اجرای ثابتی دارد.اما نیاز به فضای اضافه داشته و بدترین زمان اجرای آن از(O(n است.
جستجوی درختی
الگوریتمهای جستجوی درختی، قلب شیوههای جستجو برای دادههای ساخت یافته هستند.مبنای اصلی جستجوی درختی، گرههایی است که از یک ساختمان داده گرفته شدهاند. هر عنصر که بخواهد اضافه شود با دادههای موجود در گرههای درخت مقایسه میشود و به ساختار درخت اضافه میشود.با تغییر ترتیب دادهها و قرار دادن آنها در درخت، درخت با شیوههای مختلفی جستجو میشود. برای مثال سطح به سطح (جستجوی نخست-پهنا) یا پیمایش معکوس درخت (جستجوی نخست-ژرفا).از مثالهای دیگر جستجوهای درختی میتوان به جستجوی عمقی تکرار شونده، جستجوی عمقی محدود شده، جستجوی دوطرفه، جستجوی هزینه یکنواخت اشاره کرد.
جستجوی گراف
بسیاری از مسائل در نظریهٔ گراف میتواند با الگوریتمها ی پیمایش درخت حل شوند، مثل الگوریتم دیکسترا، الگوریتم کروسکال، الگوریتم نزدیک ترین همسایه و الگوریتم پریم. میتوان این الگوریتمها را توسعه یافتهٔ الگوریتمهای جستجوی درختی دانست.
جستجوی آگاهانه
در یک جستجوی آگاهانه، از نوع خاصی از مسائل به عنوان راهنما استفاده میشود.یک گونهٔ خوب یک جستجوی آگاهانه با کارایی قابل توجهی نسبت به جستجوی ناآگاهانه به وجود میآورد. الگوریتمهای برجستهٔ کمی از جستجوی آگاهانهٔ یک لیست وجود دارد. یکی از این الگوریتمها hash table با یک تابع hash که برمبنای نوع مسالهای که دردست است میباشد.بیشتر الگوریتمهای جستجوی آگاهانه، بسطی از درختها هستند.همانند الگوریتمهای ناآگاهانه، این الگوریتمها برای گرافها نیز میتوانند به کار روند.
جستجوی خصمانه
در یک بازی مثل شطرنج، یک درخت بازی شامل تمام حرکات ممکن توسط هر دو بازیکن و نتایج حاصل از ترکیب این حرکات وجود دارد، و ما میتوانیم این درخت را جستجو کرده و موثرترین استراتژی برای بازی را بیابیم. این چنین مسائلی دارای مشخصهٔ منحصر به فردی هستند.برنامههای بازیهای رایانهای، و همچنین فرمهای هوش مصنوعی مثل برنامه ریزی ماشینها، اغلب از الگوریتمهای جستجو مثل الگوریتم minimax (می نیمیم مجموعهای از ماکزیممها)، هرس کردن درخت جستجو و هرس کردن آلفا-بتا استفاده میکنند.
==الگوریتم اف اسکن==
(FSCAN) F-SCAN یک الگوریتم زمان بندی دیسک است که حرکت آرم و هد دیسک در سرویس دهی درخواستهای خواندن و نوشتن را تعیین میکند. طی روبش تمام درخواستها در صف اول دادهها ی اولیه هستند و تمام درخواستهای جدید در صف دادههای ثانویه قرار داده میشوند. بنا براین سرویس دهی به درخواستهای جدید به تاخیر میافتد تا زمانی که تمام درخواستهای قدیمی تحت پردازش قرار گیرد. هنگامی که روبش پایان مییابد آرم به تمام صف دادههای اولیه برده میشود و دوباره سرتاسر آن شروع میشود.
تحلیل الگوریتم
الگوریتم F-SCAN مطابق N-Step-SCAN از چسبانکی آرم جلوگیری میکند در صورتی که در الگوریتمهای دیگر مانند SSTF، SCAN و C-LOOK چنین امری اتفاق نمیافتد. چسبانکی آرم در الگوریتمهای دیگر وقتی رخ میدهد که هجمهای از درخواستها برای مسیر مشترک موجب میشود تا آرم دیسک توقف پردازش در آن مسیر گردد، از این رو ترجیح داده میشود که هیچ جستجوئی برای درخواستهای آن مسیری که در آن است مورد تایید واقع نشود، از آن جا که F-SCAN درخواستها را به دو صف دادهها جدا میکند، روبرو شدن با درخواستهای جدید به صف دادههای در حال انتظار برده میشود، آرم روبش خود را تا مسیر بیرونی ادامه میدهد و از این رو چسبانکی پیش روی الگوریتم نیست. یک معاوضه آشکار وجود دارد به طوری که درخواستها در صف دادههای در حال انتظار باید انتظار طولانی تر تا برای به اجرا درآوردن بکشند، اما در مبادله F-SCAN برای تمام درخواستهای رضایت بخش تر است.
دیگر متغیرها شامل موارد زیر میشود:
الگوریتم آسانسور –اسکن
LOOK (C-LOOK)
N-Step-SCAN
جستجو سهتایی
جستجو سهتایی
در علوم کامپیوتر رویه ی جستجو ترنری مهارتی برای پیدا کردن مقدار بیشینه و یا کمینه در توابع أکید است. در این رویه مشخص میکنیم که مقدار بیشینه یا کمینه تابع نمیتواند در یک سوم ابتدا یا انتهای دامنه ی تابع وجود داشته باشد. سپس همین شیوه را بر روی دو سوم باقیمانده به کار میبریم. جستجو سهتایی نمومهای از روش الگوریتم_تقسیم_و_حل است
موتور جستجوی وب
موتور جستجوی وب (به انگلیسی: Web search engine) موتور جستجویی است که برای جستجوی اطلاعات تحت محیط وب طراحی شدهاست.
جستجوگر گوگل
جستجوی گوگل (به انگلیسی: Google search) یک موتور جستجو در وب است که تحت مالکیت گوگل قرار دارد. گوگل از راه این وبگاه روزانه صدها میلیون دلار دریافت میکند و این وبگاه در سال ۱۹۹۷ به وجود آمد. دامنهٔ اصلی این سایت در مه ۲۰۰۸ ۱۳۵ میلیون بار بازدید شدهاست. این موتور جستجو بیشترین بازدیدکننده در بین کاربران را دارد. موتور گوگل روزانه چند صد میلیون بار به طرق مختلف استفاده میشود. مهم ترین هدف گوگل یافتن متن مورد نظر در میان صفحات وب است. اما انواع دیگر اطلاعات به وسیله قسمتهای دیگر آن مثل جستجوی تصاویر گوگل، نیز مورد جستجو قرار میگیرند. جستجوگر گوگل توسط لری پیج و سرگئی برین در سال ۱۹۹۷ ساخته شد. این جستجوگر به جز جستجوی واژگان، ۲۲ حالت جستجوی دیگر نیز دارد. مثل جستجوی مترادفها، پیشبینی هوا، محدودههای زمانی (وقت محلی)، قیمت سهام، اطلاعات زلزله، زمان نمایش فیلمها، اطلاعات فرودگاه و.... همچنین مختص اعداد، امکانات ویژهای وجود دارد مانند بازه (۷۰...۸۰)، دماها، واحدهای پول و تبدیل اینها به هم، عبارات محاسباتی (\tan 30 + \ln y^3 ) و... ترتیب قرارگرفتن نتایج جستجوی گوگل بستگی به عاملی به نام رنک (به انگلیسی: Rank) صفحه دارد. جستجوی گوگل با به کاربردن عملگرهای جبر بولی مانند شمول و عدم شمول گزینههای زیادی را برای کاربران قابل تنظیم کردهاست.(به انگلیسی: Advanced search)
بینالمللی
گوگل به زبانها و دامنههای مختلفی فعالیت میکند.
آفریکانس
آلبانیایی
آمهاری
عربی
آرامی
آذربایجانی
باسکی
بلاروسی
بنگالی
بیهاری
بوسنیایی
زبان برتون
بلغاری
خمر
زبان کاتالان
چینی (ساده)
چینی (سنتی)
زبان کرسی
کرواتی
چک
دانمارکی
زبان آلمانی
انگلیسی
اسپرانتو
استونیایی
فارویی
فیلیپینی
فنلاندی
فرانسوی
فریسی غربی
گالیشی
گرجی
آلمانی
یونانی
گوارانی
گجراتی
عبری
هندی
مجاری
ایسلندی
اندونزیایی
زبان اینترلینگوا
ایرلندی
ایتالیایی
ژاپنی
جاوهای
کانارا
قزاقی
کرهای
کردی
قرقیزی
لائوسی
لاتین
لتونیایی
زبان لینگالایی
لیتوانیایی
مقدونی
مالایی
زبان مالایالم
مالتی
مائوری
مراتی
مولداویایی (زبان)
مغولی
نپالی
نروژی
نروژی (نو)
اوستی
زبان اوریه
پشتو
فارسی
لهستانی
پرتغالی (برزیل)
پرتغالی (پرتغال)
پنجابی
کویچوا
رومانیایی
رومنش
روسی
زبان گالیک اسکاتلندی
صربی
صربوکرواتی
زبان سوتو
زبان شونا
سندی
سینهالی
اسلواکیایی
اسلوونیایی
سومالی
اسپانیایی
زبان سوندایی
سواحیلی
سوئدی
تاگالوگ
تاجیک
تامیل
تاتار
تلوگو
تایلندی
زبان تیگرینیا
تونگا
ترکی
ترکمنی
زبان اکانی
اویغوری
اکراینی
اردو
ازبکی
ویتنامی
ولزی
خوزا
ییدیش
زبان یوروبایی
زولو
یاهو! جستجو
یاهو! جستجو (به انگلیسی: Yahoo! Search) یک موتور جستجوگر اینترنتی است که در ۱۹۹۵ توسط شرکت یاهو! راهاندازی شد. طبق آمار نت اپلیکیشنز (به انگلیسی: Net Applications) یاهو! جستجو دومین موتور جستجوگر پربازدید با ۶٬۴۲% بازدید موتورهای جویشگر پس از جستجوگر گوگل با ۸۵٬۳۵% میزان بازدید و بالاتر از موتور جویشگر بایدو با ۳٬۶۷% است.
زبانها
یاهو! جستجو رابط جستجوگر خود را حداقل در ۳۸ زبان گوناگون و بینالمللی در دسترس گذاشتهاست.
زبانها
عربی
بلغاری
کاتالان
چینی ساده
چینی سنتی
کرواتی
چکی
دانمارکی
هلندی
انگلیسی
استونیایی
فنلاندی
فرانسوی
آلمانی
یونانی
عبری
مجارستانی
ایسلندی
اندونزیایی
ایتالیایی
ژاپنی
کرهای
لتونیایی
لیتوانیایی
مالایی
نروژی
فارسی
لهستانی
پرتغالی
رومانیایی
روسی
صربی
اسلواکیایی
اسلونیایی
اسپانیایی
سوئدی
تاگالوگ
تایلندی
ترکی استانبولی
ویتنامی
الگوریتم جستجوی عمق اول
در نظریهٔ گراف، جستجوی عمق اول (به انگلیسی: Depth-first Search، بهاختصار DFS) یک الگوریتم پیمایش گراف است که برای پیمایش یا جستجوی یک درخت یا یک گراف به کار میرود.
استراتژی جستجوی عمق اول برای پیمایش گراف، همانطور که از نامش پیداست "جستجوی عمیقتر در گراف تا زمانی که امکان دارد" است.
چگونه کار میکند؟
الگوریتم از ریشه شروع میکند (در گرافها و یا درختهای بدون ریشه راس دلخواهی به عنوان ریشه انتخاب میشود) و در هر مرحله همسایههای رأس جاری را از طریق یالهای خروجی رأس جاری به ترتیب بررسی کرده و به محض روبهرو شدن با همسایهای که قبلاً دیده نشده باشد، به صورت بازگشتی برای آن رأس به عنوان رأس جاری اجرا میشود. در صورتی که همهٔ همسایهها قبلاً دیده شده باشند، الگوریتم عقبگرد میکند و اجرای الگوریتم برای رأسی که از آن به رأس جاری رسیدهایم، ادامه مییابد. به عبارتی الگوریتم تا آنجا که ممکن است، به عمق بیشتر و بیشتر میرود و در مواجهه با بن بست عقبگرد میکند. این فرایند تامادامیکه همهٔ رأسهای قابل دستیابی از ریشه دیده شوند ادامه مییابد.
همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گرافاند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است، جستجوی عمق اول به صورت غیرخلاق عمل میکند. بدینترتیب که هر دفعه الگوریتم به اولین همسایهٔ یک رأس در گراف جستجو و در نتیجه هر دفعه به عمق بیشتر و بیشتر در گراف میرود تا به رأسی برسد که همهٔ همسایگانش دیده شدهاند که در حالت اخیر، الگوریتم به اولین رأسی بر میگردد که همسایهٔ داشته باشد که هنوز دیده نشده باشد. این روند تا جایی ادامه مییابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. البته پیادهسازی هوشمندانهٔ الگوریتم با انتخاب ترتیب مناسب برای بررسی همسایههای دیده نشدهٔ رأس جاری به صورتی که ابتدا الگوریتم به بررسی همسایهای بپردازد که به صورت موضعی و با انتخابی حریصانه به رأس هدف نزدیکتر است، امکانپذیر خواهد بود که معمولاً در کاهش زمان اجرا مؤثر است.
از نقطه نظر عملی، برای اجرای الگوریتم، از یک پشته (stack) استفاده میشود. بدین ترتیب که هر بار با ورود به یک رأس دیده نشده، آن رأس را در پشته قرار میدهیم و هنگام عقبگرد رأس را از پشته حذف میکنیم. بنابراین در تمام طول الگوریتم اولین عنصر پشته رأس در حال بررسی است. جزئیات پیادهسازی در ادامه خواهد آمد.
وقتی در گرافهای بزرگی جستجو میکنیم که امکان ذخیرهٔ کامل آنها به علت محدودیت حافظه وجود ندارد، در صورتی که طول مسیر پیمایش شده توسط الگوریتم که از ریشه شروع شده، خیلی بزرگ شود، الگوریتم با مشکل مواجه خواهد شد. در واقع این راهحل ساده که "رئوسی را که تا به حال دیدهایم ذخیره کنیم" همیشه کار نمیکند. چراکه ممکن است حافظهٔ کافی برای این کار نداشته باشیم. البته این مشکل با محدود کردن عمق جستجو در هر بار اجرای الگوریتم حل میشود که در نهایت به الگوریتم تعمیق تکراری (Iterative Deepening) خواهد انجامید.
الگوریتم
پیمایش با انتخاب رأس r به عنوان ریشه آغاز میشود. r به عنوان یک رأس دیده شده برچسب میخورد. رأس دلخواه r_1 از همسایگان r انتخاب شده و الگوریتم به صورت بازگشتی از r_1 به عنوان ریشه ادامه مییابد.از این پس در هر مرحله وقتی در رأسی مانند v قرار گرفتیم که همهٔ همسایگانش دیده شدهاند، اجرای الگوریتم را برای آن رأس خاتمه میدهیم. حال اگر بعد از اجرای الگوریتم با ریشهٔ r_1 همهٔ همسایگان r برچسب خورده باشند، الگوریتم پایان مییابد. در غیر این صورت رأس دلخواه r_2 از همسایگان r را که هنوز برچسب نخورده انتخاب میکنیم و جستجو را به صورت بازگشتی از r_2 به عنوان ریشه ادامه میدهیم. این روند تامادامیکه همهٔ همسایگان r برچسب نخوردهاند ادامه مییابد.
البته پیمایش گراف برای تأمین هدفی صورت میگیرد. بر این اساس برای انعطاف پذیر ساختن الگوریتم در قبال کاربردهای مختلف، دو نوع عملیات preWORK و postWORK را به همراهِ بازدید از هر رأس یا یال انجام میدهیم، که preWORK در زمان برچسب خوردنِ رأسِ در حال بازدید، و postWORK بعد از بررسی هر یالِ خروجی از رأسِ در حال بازدید انجام خواهد شد. هر دوی این عملیات وابسته به هدفِ استفاده از الگوریتم، مشخص خواهند شد.
الگوریتم بازگشتی جستجوی اول عمق به صورت زير است. آرايه يک بعدی Visited تعيين می کند آيا راسی قبلاً ملاقات شده است يا خير
الگوریتم جستجوی اول سطح
در نظریهٔ گراف، جستجوی اول سطح (به انگلیسی: Breadth-first Search، بهاختصار: BFS) یکی از الگوریتمهای پیمایش گراف است.
استراتژی جستجوی سطح اول برای پیمایش گراف، همانطور که از نامش پیداست «جستجوی سطح به سطح گراف» است.
چگونه کار میکند؟
الگوریتم از ریشه شروع میکند (در گرافها و یا درختهای بدون ریشه رأس دلخواهی به عنوان ریشه انتخاب میشود) و آن را در سطح یک قرار میدهد. سپس در هر مرحله همهٔ همسایههای رئوس آخرین سطح دیده شده را که تا به حال دیده نشدهاند بازدید میکند و آنها را در سطح بعدی میگذارد. این فرایند زمانی متوقف میشود که همهٔ همسایههای رئوس آخرین سطح قبلاً دیده شده باشند. همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گرافاند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است که در عین حال در بین همهٔ رئوس هدف با آن خصوصیات به ریشه نزدیکترین باشد، جستجوی سطح اول به صورت غیرخلاق عمل میکند. بدین ترتیب که الگوریتم هر دفعه همهٔ همسایههای یک رأس را بازدید کرده و سپس به سراغ رأس بعدی میرود و بنابراین گراف سطح به سطح پیمایش خواهد شد. این روند تا جایی ادامه مییابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. براساس آنچه گفته شد پیادهسازی هوشمندانهٔ الگوریتم آنقدر مؤثر نخواهد بود.
از نقطه نظر عملی، برای پیادهسازی این الگوریتم از صف استفاده میشود. بدین ترتیب که در ابتدا ریشه در صف قرار میگیرد. سپس هر دفعه عنصر ابتدای صف بیرون کشیده شده، همسایگانش بررسی شده و هر همسایهای که تا به حال دیده نشده باشد به انتهای صف اضافه میشود. جزئیات پیادهسازی در ادامه خواهد آمد.
الگوریتم
پیادهسازی این الگوریتم مشابه پیادهسازی جستجوی عمق اول است با این تفاوت که به جای پشته از صف استفاده میشود. در این جا نیز مانند جستجوی عمق اول، preWORK را برای انعطاف بیشتر الگوریتم در نظر میگیریم که در زمان بررسی کردن هر رأس خارج شده از صف انجام میشود.
الگوريتم جستجوی اول سطح به صورت زير است. آرايه Visited برای تعيين رئوس ملاقات شده بکار می رود. از يک صف برای نگهداشتن رئوس مجاور استفاده می شود. هر بار که راسی ملاقات می شود کليه رئوس مجاور آن در صف اضافه می شود. پيمايش از راسی که از صف برداشته می شود ادامه پيدا می کند.
مرتبسازی دایرهای
مرتب سازی دایرهای (به انگلیسی: Cycle sort) یا مرتبسازی درجا یا الگریتم مرتبسازی ناپایدار، یک مرتب سازی مقایسهای که تئوری خوبی از نظر تعداد عناصر نوشتهشده در آرایهٔ اصلی است، بر خلاف تمام الگوریتمهای مرتبسازی. این بر اساس ایدهای است که جایگشت میتواندفاکتوری برای مرتب سازی باشد، که به صورت جداگانه چرخش برای بدست آمدن نتیجه ایجاد شود.
بر خلاف تمام الگوریتمهای نزدیک به آن، دادهها در جای دیگر آرایه به سادگی نوشته نمیشوندتا آنها را از عملیات خارج کنیم. هر مقداردهی در زمان صفر صورت میگیرد اگر درآن زمان در مکان درست خودش موجود باشد، ویا در جای درس در یک زمان نوشته میشود. این مسابقه نیازمند دوباره کاری کمتری برای مرتبسازی درجا است. کم کردن تعداد نوشتنها زمانی که تعداد زیادی از دادهها را قرار است که ذخیره کنیم بسیار سودمند است، مانند EEPROMها یا Flash memory که نوشتن عمر مفید دستگاه را کاهش میدهد. الگوریتم: الگوریتم زیر پیدا میکند با چرخش و دوراندن آن و نتیجهٔ مرتب شده را به ما میدهد. توجه داشتهباشید که range(a, b) از مقدار a تا b – 1 است.
جستجوی ابتدا بهترین
جستجوی بهترین ابتدا (best-first search) یک الگوریتم جستجو است که یک گراف را با بسط دادن محتملترین نود که بنابر قوانین خاص انتخاب میشوند پیمایش میکند.
این نوع جستجو را به عنوان تخمین احتمال انتخاب نود N به وسیلهٔ heuristic evaluation function که به صورت کلی، ممکن است بر پایه توصیف N، توصیف هدف، اطلاعات جمع اوری شده به وسیلهٔ جستجو تا ان نقطه و هر گونه اطلاعات اضافی در زمینهٔ مساله توصیف میکند.
بعصی از نویسندگان از جستجوی اولویت بهترینها استفاده میکنند تا به طور خاص به یک جستجو با یک اشاره کنند که تلاش میکند تا پیشبینی کند که چقدر پایان یک مسیر به راه حل نزدیکتر است، بنابر این ان مسیرهایی که نزدیکتر به جواب هستند اول بسط داده شوند. الگوریتم جستجوی یک نمونه از الگوریتم بهترینها-اول است. الگوریتم بهترینها-اول معمولاً برای پیدا کردن پیدا کردن مسیر در جستجوهای ترکیبی استفاده میشود.
موتور جستجو (به انگلیسی: Search Engine) یا جویشگر، در فرهنگ رایانه، به طور عمومی به برنامهای گفته میشود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو میکند. در اینترنت به برنامهای گفته میشود که کلمات کلیدی موجود در فایلها و سندهای وب جهانی، گروههای خبری، منوهای گوفر و آرشیوهای FTP را جستجو میکند. جویشگر های زیادی وجود دارند که امروزه از معروفترین و پراستفاده ترین آنها میتوان به google و یاهو! جستجو اشاره کرد.
بهینهسازی موتور جستجو
بهینهسازی موتور جستجو (به انگلیسی: Search engine optimization (SEO)) که گاهی در فارسی به آن سئو گفته میشود عملیاتی است که برای بهبود دید یک وبگاه یا یک صفحهٔ وب در صفحه نتایج موتورهای جستجو که میتواند طبیعی و یا الگوریتمی باشد، میگویند. این یکی از روشهای بازاریابی موتور جستجو است. به صورت کلی وبگاههایی که دارای بالاترین مکان و بیشترین تکرار در صفحهٔ نتایج موتورهای جستجو باشند، بازدیدکنندهٔ بیشتری از طریق موتورهای جستجو به دست میآورند.برای وبمسترها یکی از عوامل مهم و حیاتی بدست اوردن کاربران جدید از موتورهای جستجو و بخصوص گوگل می باشد.
تاریخچه
علم سئو در اواسط دهه ۱۹۹۰ توسط وب مستر ها و مدیران سایتهای بزرگ شروع شد. در ابتدا همه وب مسترها می بایست تمام صفحات خود را برای آمدن خزنده ها به سایت آنها ثبت می کردند تا در نهایت صفحات آنها در نتایج جستجو به نمایش گذاشته می شد. امروزه با رشد اینترنت فروش خدمات اینترنتی هم افزایش یافته است.
روشها
شاخص گذاری کردن
موتورهای جستجوی پیشتاز همچون Yahoo!،Google و Bing از خزندهها جهت یافتن صفحات برای نتایج جستجوی الگوریتمیک استفاده میکنند. صفحاتی که از داخل باقی صفحات ایندکس شده توسط موتورهای جستجو Link شدهاند نیاز به ارسال به موتور جستجو نداشته و بصورت خودکار پیدا میشوند. بعضی از موتورهای جستجو ازجمله!Yahoo سرویس پولی ارسال را پیاده میکنند که استفاده از خزندهها را هم بصورت مجموعهای از قیمتها و نیز بصورت سیستم بها به ازاء هر Click، اجرا میکند. این برنامهها معمولاً قرارگیری در بانک اطلاعاتی موتور جستجو را ضمانت کرده و در قبال رتبهای مشخص برای صفحه در لیست نتایج جستجو ضمانتی نمیکنند. دو فهرست اصلی اینترنتی یعنی Yahoo Directory و Open Directory Project، هردو نیاز به ارسال دستی و بررسی انسانی دارند.Google ابزاری به نام Google Webmaster Tools ارائه میدهد که در آن میتوان نقشه سایت را توسط خوراک XML ایجاد کرده و بصورت رایگان ارسال نمود تا از یافته شدن تمام صفحات حتی صفحاتی که بصورت خودکار از طریق دنبال کردن Linkها پیدا نمیشوند، اطمینان حاصل نمود. خزندههای موتورهای جستجو میتوانند به عوامل مختلفی در هنگام خزیدن در یک سایت توجه کنند. تمامی صفحات ایندکس نمیشوند. همچنین فاصله یک صفحه از ریشه سایت میتواند عاملی در پیدا شدن یا عدم آن توسط خزندههای موتورهای جستجو باشد. امروزه بسیاری از شرکتهای مطرح در دنیا به بررسی و اجرای خدمات سئو برای شرکتهای مختلف مشغول هستند.
صفحه فرود یا landing page
یکی از فاکتورهای مهم در خصوص سئو مشخص کردن صفحات فرود یا landing page است.
انتخاب کلید واژههای مناسب
انتخاب کلید واژههای مناسب یکی از فاکتورهای مهم در این رابطهاست که بایستی توسط دارندگان وب سایت و برنامه نویسان در نظر گرفته شود.
جلوگیری از اجرای خزندهها در صفحات
وبمسترها برای جلوگیری از نتایج ناخواسته در شاخصهای جستجومیتوانندعنکبوتهایی توسط فایل استاندارد robots.txt که در فهرست ریشه دامنه ذخیره میشود، بسازند که فایلها و فهرستهای خاصی را مورد خزیدن (Crawl)قرار ندهد.
تولید محتوای جدید و کاربرپسند
یکی از کارهای مهمی که وب مسترها برای بهینه سازی سایت خود و یا سایت های دیگران انجام می دهند تولید محتوای مناسب و جدید برای آن سایت می باشد. محتوای مناسب علاوه بر اینکه بازدید یک سایت را بالا می برد اعتبار سایت را نزد موتورهای جستجو افزایش می دهد و می توانید لینک های طبیعی برای سایت ایجاد کند.
الگوریتم جستجو
در علوم کامپیوتر و ریاضیات، یک الگوریتم جستجو، الگوریتمی است که یک مساله را به عنوان ورودی میگیرد و بعد از ارزیابی کردن راه حلهای ممکن، یک راه حل برای آن مساله برمی گرداند.مجموعهٔ راه حلهای ممکن برای یک مساله را فضای جستجو مینامند.بعضی از الگوریتمها که با عنوان الگوریتمهای ناآگاهانه شناخته میشوند الگوریتمهایی هستند که از متدهای سادهای برای جستجوی فضای نمونه استفاده میکنند.در حالی که الگوریتمهای آگاهانه با استفاده روشهایی مبتنی بر دانش در بارهٔ ساختار فضای جستجو، میکوشند تا زمان جستجو را کاهش دهند.
رده بندی
در کتاب راسل این الگوریتمها به شکل زیر رده بندی شدهاند.
الگوریتمهای ناآگاهانه
الگوریتم نخست-پهنا
الگوریتم نخست-ژرفا
الگوریتمهای آگاهانه
الگوریتم نخست-بهترین
الگوریتم مکاشفهای
جستجوی ناآگاهانه
یک الگوریتم جستجوی ناآگاهانه الگوریتمی است که به ماهیت مساله کاری ندارد.از این رو میتوانند به طور عمومی طراحی شوند و از همان طراحی برای محدودهٔ عظیمی از مسائل استفاده کنند، این امر نیاز به طراحی انتزاعی دارد. از جمله مشکلاتی که این چنین الگوریتمهایی دارند این است که اغلب فضای جستجو بسیار بزرگ است و نیازمند زمان زیادی (حتی برای نمونههای کوچک) میباشد.از این رو برای بالا بردن سرعت پردازش غالبا از الگوریتمهای آگاهانه استفاده میکنند.
جستجوی لیست
الگوریتمهای جستجوی لیست شاید از ابتدایی ترین انواع الگوریتمهای جستجو باشند.هدف آن پیدا کردن یک عنصر از مجموعهای از کلید هاست(ممکن است شامل اطلاعات دیگری مرتبط با آن کلید نیز باشد). ساده ترین این الگوریتمها، الگوریتم جستجوی ترتیبی است که هر عنصر از لیست را با عنصر مورد نظر مقایسه میکند. زمان اجرای این الگوریتم از (O(n است وقتی که n تعداد عناصر در لیست باشد. اما میتوان از روش دیگری استفاده کرد که نیازی به جستجوی تمام لیست نباشد.جستجوی دودویی اندکی از جستجوی خطی است.زمان اجرای آن از(O(lgn است.این روش برای لیستی با تعداد دادهٔ زیاد بسیار کار آمد تر از روش الگوریتم جستجوی ترتیبی است.اما در این روش لیست باید قبل از جستجو مرتب شده باشد.{{جستجو با میان یابی برای دادههای مرتب شده با تعداد زیاد و توزیع یکنواخت، مناسب تر از جستجوی دودویی است.زمان اجرای آن به طور متوسط ((O(lg(lgn است ولی بدترین زمان اجرای آن (O(n میباشد. الگوریتم graver الگوریتم پلهای است که برای لیستهای مرتب نشده استفاده میشود. جدول درهمسازی نیز برای جستجوی لیست به کار میرود. به طور متوسط زمان اجرای ثابتی دارد.اما نیاز به فضای اضافه داشته و بدترین زمان اجرای آن از(O(n است.
جستجوی درختی
الگوریتمهای جستجوی درختی، قلب شیوههای جستجو برای دادههای ساخت یافته هستند.مبنای اصلی جستجوی درختی، گرههایی است که از یک ساختمان داده گرفته شدهاند. هر عنصر که بخواهد اضافه شود با دادههای موجود در گرههای درخت مقایسه میشود و به ساختار درخت اضافه میشود.با تغییر ترتیب دادهها و قرار دادن آنها در درخت، درخت با شیوههای مختلفی جستجو میشود. برای مثال سطح به سطح (جستجوی نخست-پهنا) یا پیمایش معکوس درخت (جستجوی نخست-ژرفا).از مثالهای دیگر جستجوهای درختی میتوان به جستجوی عمقی تکرار شونده، جستجوی عمقی محدود شده، جستجوی دوطرفه، جستجوی هزینه یکنواخت اشاره کرد.
جستجوی گراف
بسیاری از مسائل در نظریهٔ گراف میتواند با الگوریتمها ی پیمایش درخت حل شوند، مثل الگوریتم دیکسترا، الگوریتم کروسکال، الگوریتم نزدیک ترین همسایه و الگوریتم پریم. میتوان این الگوریتمها را توسعه یافتهٔ الگوریتمهای جستجوی درختی دانست.
جستجوی آگاهانه
در یک جستجوی آگاهانه، از نوع خاصی از مسائل به عنوان راهنما استفاده میشود.یک گونهٔ خوب یک جستجوی آگاهانه با کارایی قابل توجهی نسبت به جستجوی ناآگاهانه به وجود میآورد. الگوریتمهای برجستهٔ کمی از جستجوی آگاهانهٔ یک لیست وجود دارد. یکی از این الگوریتمها hash table با یک تابع hash که برمبنای نوع مسالهای که دردست است میباشد.بیشتر الگوریتمهای جستجوی آگاهانه، بسطی از درختها هستند.همانند الگوریتمهای ناآگاهانه، این الگوریتمها برای گرافها نیز میتوانند به کار روند.
جستجوی خصمانه
در یک بازی مثل شطرنج، یک درخت بازی شامل تمام حرکات ممکن توسط هر دو بازیکن و نتایج حاصل از ترکیب این حرکات وجود دارد، و ما میتوانیم این درخت را جستجو کرده و موثرترین استراتژی برای بازی را بیابیم. این چنین مسائلی دارای مشخصهٔ منحصر به فردی هستند.برنامههای بازیهای رایانهای، و همچنین فرمهای هوش مصنوعی مثل برنامه ریزی ماشینها، اغلب از الگوریتمهای جستجو مثل الگوریتم minimax (می نیمیم مجموعهای از ماکزیممها)، هرس کردن درخت جستجو و هرس کردن آلفا-بتا استفاده میکنند.
==الگوریتم اف اسکن==
(FSCAN) F-SCAN یک الگوریتم زمان بندی دیسک است که حرکت آرم و هد دیسک در سرویس دهی درخواستهای خواندن و نوشتن را تعیین میکند. طی روبش تمام درخواستها در صف اول دادهها ی اولیه هستند و تمام درخواستهای جدید در صف دادههای ثانویه قرار داده میشوند. بنا براین سرویس دهی به درخواستهای جدید به تاخیر میافتد تا زمانی که تمام درخواستهای قدیمی تحت پردازش قرار گیرد. هنگامی که روبش پایان مییابد آرم به تمام صف دادههای اولیه برده میشود و دوباره سرتاسر آن شروع میشود.
تحلیل الگوریتم
الگوریتم F-SCAN مطابق N-Step-SCAN از چسبانکی آرم جلوگیری میکند در صورتی که در الگوریتمهای دیگر مانند SSTF، SCAN و C-LOOK چنین امری اتفاق نمیافتد. چسبانکی آرم در الگوریتمهای دیگر وقتی رخ میدهد که هجمهای از درخواستها برای مسیر مشترک موجب میشود تا آرم دیسک توقف پردازش در آن مسیر گردد، از این رو ترجیح داده میشود که هیچ جستجوئی برای درخواستهای آن مسیری که در آن است مورد تایید واقع نشود، از آن جا که F-SCAN درخواستها را به دو صف دادهها جدا میکند، روبرو شدن با درخواستهای جدید به صف دادههای در حال انتظار برده میشود، آرم روبش خود را تا مسیر بیرونی ادامه میدهد و از این رو چسبانکی پیش روی الگوریتم نیست. یک معاوضه آشکار وجود دارد به طوری که درخواستها در صف دادههای در حال انتظار باید انتظار طولانی تر تا برای به اجرا درآوردن بکشند، اما در مبادله F-SCAN برای تمام درخواستهای رضایت بخش تر است.
دیگر متغیرها شامل موارد زیر میشود:
الگوریتم آسانسور –اسکن
LOOK (C-LOOK)
N-Step-SCAN
جستجو سهتایی
جستجو سهتایی
در علوم کامپیوتر رویه ی جستجو ترنری مهارتی برای پیدا کردن مقدار بیشینه و یا کمینه در توابع أکید است. در این رویه مشخص میکنیم که مقدار بیشینه یا کمینه تابع نمیتواند در یک سوم ابتدا یا انتهای دامنه ی تابع وجود داشته باشد. سپس همین شیوه را بر روی دو سوم باقیمانده به کار میبریم. جستجو سهتایی نمومهای از روش الگوریتم_تقسیم_و_حل است
موتور جستجوی وب
موتور جستجوی وب (به انگلیسی: Web search engine) موتور جستجویی است که برای جستجوی اطلاعات تحت محیط وب طراحی شدهاست.
جستجوگر گوگل
جستجوی گوگل (به انگلیسی: Google search) یک موتور جستجو در وب است که تحت مالکیت گوگل قرار دارد. گوگل از راه این وبگاه روزانه صدها میلیون دلار دریافت میکند و این وبگاه در سال ۱۹۹۷ به وجود آمد. دامنهٔ اصلی این سایت در مه ۲۰۰۸ ۱۳۵ میلیون بار بازدید شدهاست. این موتور جستجو بیشترین بازدیدکننده در بین کاربران را دارد. موتور گوگل روزانه چند صد میلیون بار به طرق مختلف استفاده میشود. مهم ترین هدف گوگل یافتن متن مورد نظر در میان صفحات وب است. اما انواع دیگر اطلاعات به وسیله قسمتهای دیگر آن مثل جستجوی تصاویر گوگل، نیز مورد جستجو قرار میگیرند. جستجوگر گوگل توسط لری پیج و سرگئی برین در سال ۱۹۹۷ ساخته شد. این جستجوگر به جز جستجوی واژگان، ۲۲ حالت جستجوی دیگر نیز دارد. مثل جستجوی مترادفها، پیشبینی هوا، محدودههای زمانی (وقت محلی)، قیمت سهام، اطلاعات زلزله، زمان نمایش فیلمها، اطلاعات فرودگاه و.... همچنین مختص اعداد، امکانات ویژهای وجود دارد مانند بازه (۷۰...۸۰)، دماها، واحدهای پول و تبدیل اینها به هم، عبارات محاسباتی (\tan 30 + \ln y^3 ) و... ترتیب قرارگرفتن نتایج جستجوی گوگل بستگی به عاملی به نام رنک (به انگلیسی: Rank) صفحه دارد. جستجوی گوگل با به کاربردن عملگرهای جبر بولی مانند شمول و عدم شمول گزینههای زیادی را برای کاربران قابل تنظیم کردهاست.(به انگلیسی: Advanced search)
بینالمللی
گوگل به زبانها و دامنههای مختلفی فعالیت میکند.
آفریکانس
آلبانیایی
آمهاری
عربی
آرامی
آذربایجانی
باسکی
بلاروسی
بنگالی
بیهاری
بوسنیایی
زبان برتون
بلغاری
خمر
زبان کاتالان
چینی (ساده)
چینی (سنتی)
زبان کرسی
کرواتی
چک
دانمارکی
زبان آلمانی
انگلیسی
اسپرانتو
استونیایی
فارویی
فیلیپینی
فنلاندی
فرانسوی
فریسی غربی
گالیشی
گرجی
آلمانی
یونانی
گوارانی
گجراتی
عبری
هندی
مجاری
ایسلندی
اندونزیایی
زبان اینترلینگوا
ایرلندی
ایتالیایی
ژاپنی
جاوهای
کانارا
قزاقی
کرهای
کردی
قرقیزی
لائوسی
لاتین
لتونیایی
زبان لینگالایی
لیتوانیایی
مقدونی
مالایی
زبان مالایالم
مالتی
مائوری
مراتی
مولداویایی (زبان)
مغولی
نپالی
نروژی
نروژی (نو)
اوستی
زبان اوریه
پشتو
فارسی
لهستانی
پرتغالی (برزیل)
پرتغالی (پرتغال)
پنجابی
کویچوا
رومانیایی
رومنش
روسی
زبان گالیک اسکاتلندی
صربی
صربوکرواتی
زبان سوتو
زبان شونا
سندی
سینهالی
اسلواکیایی
اسلوونیایی
سومالی
اسپانیایی
زبان سوندایی
سواحیلی
سوئدی
تاگالوگ
تاجیک
تامیل
تاتار
تلوگو
تایلندی
زبان تیگرینیا
تونگا
ترکی
ترکمنی
زبان اکانی
اویغوری
اکراینی
اردو
ازبکی
ویتنامی
ولزی
خوزا
ییدیش
زبان یوروبایی
زولو
یاهو! جستجو
یاهو! جستجو (به انگلیسی: Yahoo! Search) یک موتور جستجوگر اینترنتی است که در ۱۹۹۵ توسط شرکت یاهو! راهاندازی شد. طبق آمار نت اپلیکیشنز (به انگلیسی: Net Applications) یاهو! جستجو دومین موتور جستجوگر پربازدید با ۶٬۴۲% بازدید موتورهای جویشگر پس از جستجوگر گوگل با ۸۵٬۳۵% میزان بازدید و بالاتر از موتور جویشگر بایدو با ۳٬۶۷% است.
زبانها
یاهو! جستجو رابط جستجوگر خود را حداقل در ۳۸ زبان گوناگون و بینالمللی در دسترس گذاشتهاست.
زبانها
عربی
بلغاری
کاتالان
چینی ساده
چینی سنتی
کرواتی
چکی
دانمارکی
هلندی
انگلیسی
استونیایی
فنلاندی
فرانسوی
آلمانی
یونانی
عبری
مجارستانی
ایسلندی
اندونزیایی
ایتالیایی
ژاپنی
کرهای
لتونیایی
لیتوانیایی
مالایی
نروژی
فارسی
لهستانی
پرتغالی
رومانیایی
روسی
صربی
اسلواکیایی
اسلونیایی
اسپانیایی
سوئدی
تاگالوگ
تایلندی
ترکی استانبولی
ویتنامی
الگوریتم جستجوی عمق اول
در نظریهٔ گراف، جستجوی عمق اول (به انگلیسی: Depth-first Search، بهاختصار DFS) یک الگوریتم پیمایش گراف است که برای پیمایش یا جستجوی یک درخت یا یک گراف به کار میرود.
استراتژی جستجوی عمق اول برای پیمایش گراف، همانطور که از نامش پیداست "جستجوی عمیقتر در گراف تا زمانی که امکان دارد" است.
چگونه کار میکند؟
الگوریتم از ریشه شروع میکند (در گرافها و یا درختهای بدون ریشه راس دلخواهی به عنوان ریشه انتخاب میشود) و در هر مرحله همسایههای رأس جاری را از طریق یالهای خروجی رأس جاری به ترتیب بررسی کرده و به محض روبهرو شدن با همسایهای که قبلاً دیده نشده باشد، به صورت بازگشتی برای آن رأس به عنوان رأس جاری اجرا میشود. در صورتی که همهٔ همسایهها قبلاً دیده شده باشند، الگوریتم عقبگرد میکند و اجرای الگوریتم برای رأسی که از آن به رأس جاری رسیدهایم، ادامه مییابد. به عبارتی الگوریتم تا آنجا که ممکن است، به عمق بیشتر و بیشتر میرود و در مواجهه با بن بست عقبگرد میکند. این فرایند تامادامیکه همهٔ رأسهای قابل دستیابی از ریشه دیده شوند ادامه مییابد.
همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گرافاند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است، جستجوی عمق اول به صورت غیرخلاق عمل میکند. بدینترتیب که هر دفعه الگوریتم به اولین همسایهٔ یک رأس در گراف جستجو و در نتیجه هر دفعه به عمق بیشتر و بیشتر در گراف میرود تا به رأسی برسد که همهٔ همسایگانش دیده شدهاند که در حالت اخیر، الگوریتم به اولین رأسی بر میگردد که همسایهٔ داشته باشد که هنوز دیده نشده باشد. این روند تا جایی ادامه مییابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. البته پیادهسازی هوشمندانهٔ الگوریتم با انتخاب ترتیب مناسب برای بررسی همسایههای دیده نشدهٔ رأس جاری به صورتی که ابتدا الگوریتم به بررسی همسایهای بپردازد که به صورت موضعی و با انتخابی حریصانه به رأس هدف نزدیکتر است، امکانپذیر خواهد بود که معمولاً در کاهش زمان اجرا مؤثر است.
از نقطه نظر عملی، برای اجرای الگوریتم، از یک پشته (stack) استفاده میشود. بدین ترتیب که هر بار با ورود به یک رأس دیده نشده، آن رأس را در پشته قرار میدهیم و هنگام عقبگرد رأس را از پشته حذف میکنیم. بنابراین در تمام طول الگوریتم اولین عنصر پشته رأس در حال بررسی است. جزئیات پیادهسازی در ادامه خواهد آمد.
وقتی در گرافهای بزرگی جستجو میکنیم که امکان ذخیرهٔ کامل آنها به علت محدودیت حافظه وجود ندارد، در صورتی که طول مسیر پیمایش شده توسط الگوریتم که از ریشه شروع شده، خیلی بزرگ شود، الگوریتم با مشکل مواجه خواهد شد. در واقع این راهحل ساده که "رئوسی را که تا به حال دیدهایم ذخیره کنیم" همیشه کار نمیکند. چراکه ممکن است حافظهٔ کافی برای این کار نداشته باشیم. البته این مشکل با محدود کردن عمق جستجو در هر بار اجرای الگوریتم حل میشود که در نهایت به الگوریتم تعمیق تکراری (Iterative Deepening) خواهد انجامید.
الگوریتم
پیمایش با انتخاب رأس r به عنوان ریشه آغاز میشود. r به عنوان یک رأس دیده شده برچسب میخورد. رأس دلخواه r_1 از همسایگان r انتخاب شده و الگوریتم به صورت بازگشتی از r_1 به عنوان ریشه ادامه مییابد.از این پس در هر مرحله وقتی در رأسی مانند v قرار گرفتیم که همهٔ همسایگانش دیده شدهاند، اجرای الگوریتم را برای آن رأس خاتمه میدهیم. حال اگر بعد از اجرای الگوریتم با ریشهٔ r_1 همهٔ همسایگان r برچسب خورده باشند، الگوریتم پایان مییابد. در غیر این صورت رأس دلخواه r_2 از همسایگان r را که هنوز برچسب نخورده انتخاب میکنیم و جستجو را به صورت بازگشتی از r_2 به عنوان ریشه ادامه میدهیم. این روند تامادامیکه همهٔ همسایگان r برچسب نخوردهاند ادامه مییابد.
البته پیمایش گراف برای تأمین هدفی صورت میگیرد. بر این اساس برای انعطاف پذیر ساختن الگوریتم در قبال کاربردهای مختلف، دو نوع عملیات preWORK و postWORK را به همراهِ بازدید از هر رأس یا یال انجام میدهیم، که preWORK در زمان برچسب خوردنِ رأسِ در حال بازدید، و postWORK بعد از بررسی هر یالِ خروجی از رأسِ در حال بازدید انجام خواهد شد. هر دوی این عملیات وابسته به هدفِ استفاده از الگوریتم، مشخص خواهند شد.
الگوریتم بازگشتی جستجوی اول عمق به صورت زير است. آرايه يک بعدی Visited تعيين می کند آيا راسی قبلاً ملاقات شده است يا خير
الگوریتم جستجوی اول سطح
در نظریهٔ گراف، جستجوی اول سطح (به انگلیسی: Breadth-first Search، بهاختصار: BFS) یکی از الگوریتمهای پیمایش گراف است.
استراتژی جستجوی سطح اول برای پیمایش گراف، همانطور که از نامش پیداست «جستجوی سطح به سطح گراف» است.
چگونه کار میکند؟
الگوریتم از ریشه شروع میکند (در گرافها و یا درختهای بدون ریشه رأس دلخواهی به عنوان ریشه انتخاب میشود) و آن را در سطح یک قرار میدهد. سپس در هر مرحله همهٔ همسایههای رئوس آخرین سطح دیده شده را که تا به حال دیده نشدهاند بازدید میکند و آنها را در سطح بعدی میگذارد. این فرایند زمانی متوقف میشود که همهٔ همسایههای رئوس آخرین سطح قبلاً دیده شده باشند. همچنین در مسائلی که حالات مختلف متناظر با رئوس یک گرافاند و حل مسئله مستلزم یافتن رأس هدف با خصوصیات مشخصی است که در عین حال در بین همهٔ رئوس هدف با آن خصوصیات به ریشه نزدیکترین باشد، جستجوی سطح اول به صورت غیرخلاق عمل میکند. بدین ترتیب که الگوریتم هر دفعه همهٔ همسایههای یک رأس را بازدید کرده و سپس به سراغ رأس بعدی میرود و بنابراین گراف سطح به سطح پیمایش خواهد شد. این روند تا جایی ادامه مییابد که رأس هدف پیدا شود و یا احتمالاً همهٔ گراف پیمایش شود. براساس آنچه گفته شد پیادهسازی هوشمندانهٔ الگوریتم آنقدر مؤثر نخواهد بود.
از نقطه نظر عملی، برای پیادهسازی این الگوریتم از صف استفاده میشود. بدین ترتیب که در ابتدا ریشه در صف قرار میگیرد. سپس هر دفعه عنصر ابتدای صف بیرون کشیده شده، همسایگانش بررسی شده و هر همسایهای که تا به حال دیده نشده باشد به انتهای صف اضافه میشود. جزئیات پیادهسازی در ادامه خواهد آمد.
الگوریتم
پیادهسازی این الگوریتم مشابه پیادهسازی جستجوی عمق اول است با این تفاوت که به جای پشته از صف استفاده میشود. در این جا نیز مانند جستجوی عمق اول، preWORK را برای انعطاف بیشتر الگوریتم در نظر میگیریم که در زمان بررسی کردن هر رأس خارج شده از صف انجام میشود.
الگوريتم جستجوی اول سطح به صورت زير است. آرايه Visited برای تعيين رئوس ملاقات شده بکار می رود. از يک صف برای نگهداشتن رئوس مجاور استفاده می شود. هر بار که راسی ملاقات می شود کليه رئوس مجاور آن در صف اضافه می شود. پيمايش از راسی که از صف برداشته می شود ادامه پيدا می کند.
مرتبسازی دایرهای
مرتب سازی دایرهای (به انگلیسی: Cycle sort) یا مرتبسازی درجا یا الگریتم مرتبسازی ناپایدار، یک مرتب سازی مقایسهای که تئوری خوبی از نظر تعداد عناصر نوشتهشده در آرایهٔ اصلی است، بر خلاف تمام الگوریتمهای مرتبسازی. این بر اساس ایدهای است که جایگشت میتواندفاکتوری برای مرتب سازی باشد، که به صورت جداگانه چرخش برای بدست آمدن نتیجه ایجاد شود.
بر خلاف تمام الگوریتمهای نزدیک به آن، دادهها در جای دیگر آرایه به سادگی نوشته نمیشوندتا آنها را از عملیات خارج کنیم. هر مقداردهی در زمان صفر صورت میگیرد اگر درآن زمان در مکان درست خودش موجود باشد، ویا در جای درس در یک زمان نوشته میشود. این مسابقه نیازمند دوباره کاری کمتری برای مرتبسازی درجا است. کم کردن تعداد نوشتنها زمانی که تعداد زیادی از دادهها را قرار است که ذخیره کنیم بسیار سودمند است، مانند EEPROMها یا Flash memory که نوشتن عمر مفید دستگاه را کاهش میدهد. الگوریتم: الگوریتم زیر پیدا میکند با چرخش و دوراندن آن و نتیجهٔ مرتب شده را به ما میدهد. توجه داشتهباشید که range(a, b) از مقدار a تا b – 1 است.
جستجوی ابتدا بهترین
جستجوی بهترین ابتدا (best-first search) یک الگوریتم جستجو است که یک گراف را با بسط دادن محتملترین نود که بنابر قوانین خاص انتخاب میشوند پیمایش میکند.
این نوع جستجو را به عنوان تخمین احتمال انتخاب نود N به وسیلهٔ heuristic evaluation function که به صورت کلی، ممکن است بر پایه توصیف N، توصیف هدف، اطلاعات جمع اوری شده به وسیلهٔ جستجو تا ان نقطه و هر گونه اطلاعات اضافی در زمینهٔ مساله توصیف میکند.
بعصی از نویسندگان از جستجوی اولویت بهترینها استفاده میکنند تا به طور خاص به یک جستجو با یک اشاره کنند که تلاش میکند تا پیشبینی کند که چقدر پایان یک مسیر به راه حل نزدیکتر است، بنابر این ان مسیرهایی که نزدیکتر به جواب هستند اول بسط داده شوند. الگوریتم جستجوی یک نمونه از الگوریتم بهترینها-اول است. الگوریتم بهترینها-اول معمولاً برای پیدا کردن پیدا کردن مسیر در جستجوهای ترکیبی استفاده میشود.
دسترسی
رایجترین زبان برای ارتباطات در اینترنت زبان انگلیسی است. این ممکن است ناشی از زادگاه اینترنت و همچنین نقش زبان انگلیسی به عنوان زبان بینالمللی باشد. ناتوانی رایانههای اولیه - که اغلب در امریکا ساخته میشدند - در پردازش نویسه (کاراکتر)های به جز گونه انگلیسی الفبای لاتین نیز ممکن است با این موضوع مرتبط باشد. پس از انگلیسی(۲۸٪ از بازدیدکنندگان وب)، پرخواهان ترین زبانها در وب جهان گستر عبارنتد از : چینی ۲۳٪، اسپانیایی ۸٪، ژاپنی ۵٪، پرتغالی و آلمانی (هر کدام ۴٪)، عربی و فرانسه و روسی (هرکدام ۳٪)و کرهای ۳٪.بر پایه منطقه، ۴۲٪ از کاربران اینترنت در آسیا، ۲۴٪ در اروپا،۱۴٪ در امریکای شمالی، ۱۰٪ در امریکای لاتین و کارائیب، ۵٪ در آفریقا، ۳٪ در خاورمیانه و ۱٪ در استرالیا/اقیانوسیه.
فناوریهای اینترنت در سالهای اخیر بویژه در زمینه استفاده از یونیکد، به حد کافی گسترش یافتهاند و امکانات مناسبی برای ارتباط در بسیاری از زبانهای دنیا در دسترس میباشد، اما همچنان مسائلی مانند موجیباکه (نمایش نادرست برخی نویسههای یک زبان) باقی هستند.
روشهای معمول دسترسی به اینترنت در خانهها شامل دسترسی با شمارهگیری (dial-up)، خطوط زمینی پهن باند(از طریق کابل کواکسیال، فیبر نوری و یا سیم مسی)، وای-فای (Wi-Fi)، ماهواره و فناوری ۳G تلفن همراه میباشد. اماکن عمومی که میتوان در آنها از اینترنت استفاده نمود شامل کتابخانهها و کافینتها که در آنها رایانههایی با اتصال به اینترنت مهیاست.همچنین کیوسکهای اینترنت در بسیاری از اماکن عمومی مانند سالن فرودگاه و کافی شاپها موجودند که بعضی از آنها برای استفادههای کوتاه و سرپایی در نظرگرفته شدهاند.واژههای گوناگونی برای نامیدن این ترمینالها به کار میرودف از جمله : کیوسک عمومی اینترنت و یا پایانه دسترسی عمومی.
این ترمینالها به گستردگی برای کاربردهایی چون رزرو بلیط، سپرده گذاری بانکی، پرداخت برخط مورد استفاده قرار میگیرد. وای-فای(Wi-Fi) دسترسی بی سیم به شبکههای رایانهای و در نتیجه به اینترنت را فراهم میکند. نقاط داغ (Hotspots) به مکانهایی گفته میشود که دسترسی به اینترنت بی سیم در آن نقاط امکانپذیر است و کاربران میتوانند با لپ تاپ و یا دستیار دیجیتال شخصی(PDA) خود به اینترنت متصل شوند. گاهی این سرویسهای بیسیم برای عموم و یا حداقل برای مشتریان رایگان ارائه میشود. یک نقطه داغ محدوده مکانی مشخصی را شامل میشود مثل محوطه یک دانشگاه، پارک و یا حتی سراسر نقاط یک شهر. سرویسهای تجاری Wi-Fi که کل شهر را پوشش میدهند هم اکنون در شهرهای لندن، وین، تورنتو، سانفرانسیسکو، فیلادلفیا، شیکاگو و پیتسبورگ ارائه میشوند. در این شهرها مشترکین میتوانند در هر نقطهای از شهر به شبکه وای-فای متصل شوند
.علاوه بر وای-فای، آزمایشهایی نیز در زمینه شبکههای بی سیم متحرک اختصاصی مانن ریکوچت و سرویسهای دادهای پرسرعت بر روی تلفنهای همراه، و شبکههای بی سیم ثابت انجام شدهاست. تلفنهای همراه پیشرفته مثل تلفنهای همراه هوشمند (Smartphone) همگی با قابلیت اتصال به اینترنت از طریق شبکه تلفن عرضه میشوند. مرورگرهای وب مثل اپرا معمولاً نسخهای برای این دستگاههای جیبی پیشرفته دارند.
آثار اجتماعی
اینترنت به دلیل خصوصیاتی چون قابلیت استفاده و دسترسی گسترده آن، اشکال کاملاً جدیدی از تعاملات، فعالیتها، و سازماندهیهای اجتماعی را پدید آوردهاست. وبگاههای شبکههای اجتماعی چون فیسبوک، توییتر و مایاسپیس روشهای جدیدی برای معاشرت و تعامل خلق کردهاند. کاربران این سایتها قادرند اطلاعات گوناگونی به صفحات خود بیفزایند، علایق مشترکی را دنبال کنند و به دیگران مرتبط شوند. وبگاههایی مثل لینکداین به پرورش ارتباطات حرفهای و تجاری میپردازد. یوتیوب و فلیکر هم در زمینه ویدیوها و تصاویر کاربران تخصص دارند.
دهه اول سده بیست و یکم، شاهد پرورش اولین نسلی است که در شرایطی رندگی میکنند که اینترنت به گستردگی در دسترس میباشد. این مسایل و نگرانیهایی را به دنبال دارد از جمله مسئله حفظ حریم خصوصی و هویت و توزیع غیر مجاز مواردی که تحت قانون کپی رایت محافظت میشوند. این بومیان دیجیتال با انبوهی از مسایلی مواجه میشوند که در مورد نسلهای قبلی وجود نداشت.
اینترنت کاربرد جدیدی به عنوان بک ابزار سیاسی یافتهاست مه این منجر به سانسوراینترنت میشود. نمونه استفاده سیاسی از اینترنت، مبارزه انتخاباتی هاوارد دین در سال ۲۰۰۴ در ایالات متحده بود که به دلیل جمع آوری کمکهای مردمی از طریق اینترنت شایان توجه بود. بسیاری از گروههای سیاسی از اینترنت برای سازماندهی در انجام ماموریت خود استفاده میکنند. برخی از دولتها مانند ایران، کره شمالی، میانمار، چین وعربستان، آنچه را که مردم میتوانند از طرق اینترنت ببینند، به ویژه در مورد مسایل سیاسی و مذهبی محدود مینمایند.
این کار از طریق نرمافزارهایی که دامنه و محتوا را فیلتر میکنند صورت میپذیرد. در نروژ، دانمارک، فنلاند و سوئد، ارائه دهندگان اصلی خدمات اینترنت به صورت داوطلبانه و احتمالاً برای اجتناب از قانون شدن فیلترینگ، قبول کردهاند که دسترسی به سایتهایی که توسط مقامات مسوول لیست شدهاست را محدود نمایند. اگرچه قرار بر این است که این آدرسهای ممنوع شده تنها شامل وبگاههای هرزه نگاری کودکان باشد، اما محتوای این لیست مخفی است.
در بسیاری از کشورها مانند ایالات متحده امریکا، اگرپه قوانینی در ممنوعیت پخش موارد دربردارنده هرزه نگاری کودک تصویب نمودهاند اما استفاده از نرم افرارهای فیلترینگ را اجباری نکردهاند. نرمافزارهای تجاری و یا رایگان بسیاری تحت عنوان نرمافزار کنترل محتوا در دسترس هستند که کاربران از طریق آنها میتوانند وبگاههای مستهجن را در رایانه شخصی و یا شبکه محلی مسدود نمود تا از دسترسی کودکان به مواد هرزه نگاری و یا خشونت نگاری جلو گیری نمود.
اینترنت از آغاز پیدایش همواره وسیله مناسبی برای فعالیتهای تفریحی بودهاست. بسیاری از انجمنهای اینترنتی بخشهایی برای بازی و ویدیوهای خنده دار و کارتونهای کوتاه در قالب انیمیشنهای فلش(Flash) دارند. بیش از ۶ میلیون نفر در اینترنت از وب نوشتها و تختههای پیام برای برقراری ارتباط استفاده میکنند. صنایع هرزه نگاری و قمار از اینترنت سود میجویند تا وبگاههایی بسازند که منبع کلان تبلیغات برای سایر وبگاهها میباشند.
اگرچه بسیاری از دولتها برای محدود سازی استفاده این دو صنعت ازاینترنت تلاش کردهاند اما در جلوگیری از گسترش محبوبیت آنها چندان موفق نبودهاند.یکی از فعالیتهای تفریحی اصلی در اینترنت، بازیهای چند نفره است. این شکل تفریح اجتماعاتی را بوجود میآورد که در آن افراد از هر سن و نژادی از دنیای بازیهای چندنفره کامپیوتری لذت میبرند. اگرچه بازیهای برخط از سال ۱۹۷۰ وجود داشتهاند،
اما گونه مدرن این بازیها با خدمات اشتراکی مانند گیماسپای و MPlayer آغاز شد. غیر مشترکین محدود به بازیهای خاص و یا زمان بازی خاص بودند. بسیاری از مردم از اینترنت برای دسترسی و بارگیری(download) موسیقی و فیلم و سایر آثار استفاده میکنند. این خدمات به هر دو صورت رایگان و پولی، با استفاده ازسرورهای مرکزی و یا فناوریهای نظیر-به-نظیر توزیع شده ارائه میشوند.برخی از این منابع توجه بیشتری نسبت به سایرین در زمینه حقوق مولفین اصلی نشان دادهاند.
بسیاری از مردم از اینترنت برای دسترسی به اخبار، پیش بینی آب وهوا، گزارشهای ورزشی و جستجوی مطالب در مورد علاقهمندیهای خود استفاده میکنند. آنها از گپ برخط، پیام رسان فوری و پست الکترونیک برای در تماس بودن با دوستان خود در سراسر دنیا و به شیوهای شبیه به دوست مکاتبهای که در قدیم رواج داشت، استفاده میکنند. اینترنت شاهد شمار رو به افزایش میزکارهای وب که در آن کاربران به فایلها و تنظیمات خود دسترسی پیدا میکنند، بودهاست."کم کاری سایبری" (Cyberslacking) محل اتلاف جدی منابع سازمانهاست. کارمندان انگلیسی به طور میانگین ۵۷٪ از وقت خود را به وب گردی در حین کار میپردازند.
تاثیرات ذهنی
بر روی آثار اینترنت بر مغز انسان مطالعات زیادی انجام شدهاست. نیکلاس کار(به انگلیسی: Nicholas Carr) ادعا میکند که اینترنت تفکر عمیق را که عامل خلاقیت واقعی است کاهش میدهد. او همچنین میگوید که پیوندهای فرامتن و تحریک بیش از حد، به این معنی است که مغز باید بیشتر توجهش را بر روی تصمیمات کوتاه متمرکز کند. او همچنین بیان میکند که اینترنت مغز را غرق در اندیشه میکند که باعث آسیب رسیدن به حافظه بلند مدت میگردد. شمار فراوان محرکها در اینترنت منجر به بار شناختی(Cognitive Load) سنگینی برای مغز میشود که یادآوری هرچیزی را مشکل میسازد.استیون پینکر (به انگلیسی: Steven Pinker)، روانشناس، نظری مخالف دارد. او به این نکته اشاره میکند که افراد بر روی آنچه انجام میدهند کنترل دارند وبنابراین این پژوهش و استدلال هرگز طبیعت انسان را در نظر نداشتهاست. او میگوید "تجربه ظرفیتهای پردازش اطلاعات مغز را عوض نمیکند" و ادعا میکند که اینترنت باعث باهوشتر شدن انسانها شدهاست.
تاریخ اینترنت
اتحاد جماهیر شوروی آن زمان موشکی با نام «اسپونیک» (Spotnik) را به فضا میفرستد و نشان میدهد دارای قدرتی است که میتواند شبکههای ارتباطی آمریکا را توسط موشکهای بالستیک و دوربرد خود از بین ببرد. آمریکاییها در پاسخگویی به این اقدام روسها، موسسه پروژههای تحقیقی پیشرفته “ARPA” را بهوجود آوردند. هدف از تاسیس چنین موسسهای پژوهش و آزمایش برای پیدا کردن روشی بود که بتوان از طریق خطوط تلفنی، کامپیوترها را به هم مرتبط نمود. به طوری که چندین کاربر بتوانند از یک خط ارتباطی مشترک استفاده کنند. در اصل شبکهای بسازند که در آن دادهها به صورت اتوماتیک بین مبدا و مقصد حتی در صورت از بین رفتن بخشی از مسیرها جابهجا و منتقل شوند. در اصل هدف “ARPA” ایجاد یک شبکه اینترنتی نبود و فقط یک اقدام احتیاطی در مقابل حمله احتمالی موشکهای اتمی دوربرد بود. هر چند اکثر دانش امروزی ما درباره شبکه بهطور مستقیم از طرح آرپانت “ARPPA NET” گرفته شدهاست. شبکهای که همچون یک تار عنکبوت باشد و هر کامپیوتر ان از مسیرهای مختلف بتواند با همتایان خود ارتباط دااشته باشد واگر اگر یک یا چند کامپیوتر روی شبکه یا پیوند بین انها از کار بیفتادبقیه باز هم بتوانستند از مسیرهای تخریب نشده با هم ارتباط بر قرار کنند.
این ماجرا با وجودی که بخشی از حقایق بهوجود آمدن اینترنت را بیان میکند اما نمیتواند تمام واقعیات مربوط به آن را تشریح کند. باید بگوییم افراد مختلفی در تشکیل اینترنت سهم داشتهاند آقای “Paul Baran” یکی از مهمترین آنهاست. آقای باران که در دوران جنگ سرد زندگی میکرد میدانست که شبکه سراسری تلفن آمریکا توانایی مقابله با حمله اتمی شوروی سابق را ندارد. مثلاً اگر رییس جمهور وقت آمریکا حمله اتمی متقابل را دستور دهد، باید از یک شبکه تلفنی استفاده میکرد که قبلاً توسط روسها منهدم شده بود. در نتیجه طرح یک سیستم مقاوم در مقابل حمله اتمی روسها ریخته شد.آقای باران (Baran) تشکیل و تکامل اینترنت را به ساخت یک کلیسا تشبیه کرد و معتقد بود، طی سالهای اخیر هر کس سنگی به پایهها و سنگهای قبلی بنا اضافه میکند و انجام هر کاری وابسته به کارهای انجام شده قبلی است. بنابراین نمیتوان گفت، کدام بخش از کار مهمترین بخش کار بودهاست و در کل پیدایش اینترنت نتیجه کار و تلاش گروه کثیری از دانشمندان است. داستان پیدایش اینترنت با افسانه و واقعیت در هم آمیخته شدهاست.
در اوایل دهه ۶۰ میلادی آقای باران طی مقالاتی پایه کار اینترنت امروزی را ریخت. اطلاعات و دادهها به صورت قطعات و بستههای کوچکتری تقسیم و هر بسته با آدرسی که به آن اختصاص داده میشود به مقصد خاص خود فرستاده میشود. به این ترتیب بستهها مانند نامههای پستی میتوانند از هر مسیری به مقصد برسند. زیرا آنها شامل آدرس فرستنده و گیرنده هستند و در مقصد بستهها مجدداً یکپارچه میشوند و به صورت یک اطلاعات کامل درمیآیند.
آقای باران (Baran) طی مقالاتی اینچنینی ساختمان و ساختار اینترنت را پیشگویی کرد. او از کار سلولهای مغزی انسان به عنوان الگو استفاده کرد، او معتقد بود: وقتی سلولهای مغزی از بین بروند، شبکه عصبی از آنها دیگر استفاده نمیکند و مسیر دیگری را در مغز انتخاب میکند. از دیدگاه وی این امکان وجود دارد که شبکهای با تعداد زیادی اتصالات برای تکرار ایجاد شوند تا در صورت نابودی بخشی از آن، همچنان به صورت مجموعهای به هم پیوسته کار کند. تا نیمه دهه ۶۰ میلادی کسی به نظرات او توجهای نکرد. تا اینکه در سال ۱۹۶۵ نیروی هوایی آمریکا و«آزمایشگاههای بل» به نظرات او علاقهمند شدند و پنتاگون با سرمایهگذاری در طراحی و ساخت شبکهای براساس نظریات او موافقت کرد.
ولی آقای باران (Baran) بنابر دلایلی حاضر با همکاری با نیروی هوایی آمریکا نشد. در این میان دانشمندی با نام تیلور (Tailon) وارد موسسه آرپا (ARPA) شد. او مستقیماً به آقای هرتسفلد رییس موسسه پیشنهاد کرد: (ARPA) آرپا هزینه ایجاد یک شبکه آزمایشی کوچک با حداقل چهار گره را تامین کند که بودجه آن بالغ بر یک میلیون دلار میشد. با این پیشنهاد تیلور تجربهای را آغاز کرد که منجر به پیدایش اینترنت امروزی شد. او موفق شد در سال ۱۹۶۶، دو کامپیوتر را در شرق و غرب آمریکا به هم متصل کند. با این اتصال انقلابی در نحوه صدور اطلاعات در دنیای ارتباطات رخ داد که نتیجه آن را امروز همگی شاهد هستیم. این شبکه به بستههایی (packet) از دادهها که به وسیله کامپیوترهای مختلف ارسال میشدند اتکا داشت. پس از انکه ازمایشها سودمندی انرا مشخص کردند سایر بخشهای دولتی و دانشگاهها پژوهشی تمایل خود را به وصل شدن به ان اعلام کردند . ارتباطات الکترونیکی به صورت روشی موثر برای دانشمندان و دیگران به منظور استفاده مشترک از دادهها در امد. در همان زمان که ARPAnet در حال رشد بود تعدادی شبکه پوشش محلی (LAN) در نقاط مختلف آمریکا به وجود امد. مدیران LANها نیز به وصل کردن کامپیوترهای شبکههای خود به شبکههای بزرگتر اقدام کردند . پروتوکل اینترنت ARPAnet IP زبان استاندارد حکمفرما برای برقراری ارتباط کامپیوترهای شبکههای مختلف به یکدیگر شد.تاریخ تولد اینترنت به طور رسمی اول سپتامبر ۱۹۶۹ اعلام شدهاست. زیرا که اولین “IMP” در دانشگاه “UCLA” واقع در سانتاباربارا در این تاریخ بارگذاری شدهاست.
از اوایل دهه ۱۹۹۰ رشد استفاده از اینترنت به صورت تصاعدی افزایش یافت . یکی از علل چنین استقبالی ابزار جستجویی مانند Gopher و archie بودهاست اما اینها در سال ۱۹۹۱ تحت تاثیر word wide web قرار گرفتند که به وسیله CERN یا ازمایشگاه فیزیک هستهای اروپا ساخته شد . با ان که اینترنت از ابتدا طوری بود که مبادله اطلاعات برای تازه واردان بسیار ساده باشد. بزرگترین جهش در وب در سال ۱۹۹۳ با عرضه نرمافزار موزاییک mosaic که نخستین برنامه مرورگر وب گرافیکی بود به وجود امد. برنامه موزاییک محصول تلاش دانشجویان و استادان بخش "مرکز ملی کاربردهای ابر کامپیوتر " در دانشگاه ایلینویز آمریکا بود. برای نخستین بار موزاییک امکانات اشاره و کلیک (به وسیله موش) را فراهم کرد. کاربران میتوانستند صفحات وب (web page) یا مجموعهای از متن و گرافیک را کنار هم بگذارند تا هر کسی که میخواست انها را بتواند روی اینترنت ببیند. وقتی با موش روی کلمهها یا تصاویر خاصی که hyper link نامیده میشد کلیک میکردند برنامه موزاییک به طور خود کار یک صفحه دیگر باز میکرد که به کلمه یا تصویر خاص و کلیک شده اختصاص داشت. بهترین بخش این سیستم انجا بود که hyper linkها میتوانستند به صفحاتی روی همان کامپیوتر یا هر کامپیوتر دیگر اینترنت با خدمات وب اشاره کنند. صفحات وب هر روز متولد میشدند و مفهوم موج سواری یا surfing روی وب متولد شد. اواسط سال ۱۹۹۴ سه میلیون کامپیوتر به اینترنت وصل شده بود و در ان هنگام اجرای عملیات اهسته نشده بود. صفحات جدید وب که شامل همه چیز از اسناد دولتی تا مدارک شرکتها و مدلهای جدید لباس بود در سراسر دنیا چندین برابر شد . موزاییک و جانشینان ان مانند navigator محصول شرکت " نت اسکیپ " اینترنت را از قلمرو علمی به میان مردم اوردند. طبق اخرین امار ۵۱ درصد کاربران بعد از سال ۱۹۹۵ وارد این محیط شدهاند. میلیونها انسانی که از اینترنت استفاده میکنند نیازی ندارند که نکات فنی مانند TCP/IP را بدانند . امروزه شرکتهای خدمات دهنده اینترنت یا ISP این کار را به عهده دارند.رشد روز افزون ان و ساده تر شدن استفاده ان همچنان ادامه دارد . هر چه تعداد مردم بیشتری به اینترنت رجوع کنند تعداد شرکتهای سازنده برنامههای اینترنت بیشتر میشود.با انکه بعضی از عاشقان اینترنت ان را نوعی شیوه زندگی میدانند. در نظر بیشتر کاربران منبع سرگرمی اطلاعات است ولی بیشترین مصرف ان پست الکترونیکی یا همان email است که یکی از ابزارهای ارتباطی کار امد به شمار میرود. پیامها از کامپیوتری به کامپیوتر دیگر با سرعت پرواز میکنند و منتظر میمانند تا شخص فرصت خواندن انها را پیدا کند . وب امکانات خوبی برای کپی از نرمافزارهای مجاز از لحاظ کپی فراهم میسازد. وقتی که میبینیم که در مدت کوتاهی اینترنت به چنین رشدی نایل آمده است، مطمئناً دشوار خواهد بود که آینده او را پیش بینی کنیم. طبق نظر کارشناسان ماهانه ۱۰ درصد به تعداد کاربران اینترنت افزوده میشود ولی تعداد دقیق کاربران که روزانه از آن استفاده میکنند مشخص نیست. هرچند که پارهای از کارشناسان تعداد آنها را تا ۹۰۰ میلیون نفر حدس میزنند. تعداد رسمی کاربران اینترنتی را در سال ۲۰۰۰ کارشناسان ۵۰۰ میلیون نفر اعلام کرده بودند.
قطعاً در سالهای آینده تحولات شگرفی را در زمینه شبکههای اینترنتی شاهد خواهیم بود. بهوسیله اینترنت انسان به راههای جدیدی دست پیدا کرد. در کنار این شانس جدید توسط اینترنت، باید بگوییم خطراتی نیز در رابطه با سیاست و اقتصاد و علم به دنبال خواهد داشت. فرم امروزی اینترنت مدیون همکاری تمام کاربران اینترنت در سرتاسر گیتی است که با این تصور که اطلاعات موجود در سطح جهان را به راحتی با یکدیگر مبادله کنند. این تصوری بود که آقای باران(Baran) از اینترنت داشت و امیدواریم در آینده نیز تکامل اینترنت در این مسیر باشد.
رایجترین زبان برای ارتباطات در اینترنت زبان انگلیسی است. این ممکن است ناشی از زادگاه اینترنت و همچنین نقش زبان انگلیسی به عنوان زبان بینالمللی باشد. ناتوانی رایانههای اولیه - که اغلب در امریکا ساخته میشدند - در پردازش نویسه (کاراکتر)های به جز گونه انگلیسی الفبای لاتین نیز ممکن است با این موضوع مرتبط باشد. پس از انگلیسی(۲۸٪ از بازدیدکنندگان وب)، پرخواهان ترین زبانها در وب جهان گستر عبارنتد از : چینی ۲۳٪، اسپانیایی ۸٪، ژاپنی ۵٪، پرتغالی و آلمانی (هر کدام ۴٪)، عربی و فرانسه و روسی (هرکدام ۳٪)و کرهای ۳٪.بر پایه منطقه، ۴۲٪ از کاربران اینترنت در آسیا، ۲۴٪ در اروپا،۱۴٪ در امریکای شمالی، ۱۰٪ در امریکای لاتین و کارائیب، ۵٪ در آفریقا، ۳٪ در خاورمیانه و ۱٪ در استرالیا/اقیانوسیه.
فناوریهای اینترنت در سالهای اخیر بویژه در زمینه استفاده از یونیکد، به حد کافی گسترش یافتهاند و امکانات مناسبی برای ارتباط در بسیاری از زبانهای دنیا در دسترس میباشد، اما همچنان مسائلی مانند موجیباکه (نمایش نادرست برخی نویسههای یک زبان) باقی هستند.
روشهای معمول دسترسی به اینترنت در خانهها شامل دسترسی با شمارهگیری (dial-up)، خطوط زمینی پهن باند(از طریق کابل کواکسیال، فیبر نوری و یا سیم مسی)، وای-فای (Wi-Fi)، ماهواره و فناوری ۳G تلفن همراه میباشد. اماکن عمومی که میتوان در آنها از اینترنت استفاده نمود شامل کتابخانهها و کافینتها که در آنها رایانههایی با اتصال به اینترنت مهیاست.همچنین کیوسکهای اینترنت در بسیاری از اماکن عمومی مانند سالن فرودگاه و کافی شاپها موجودند که بعضی از آنها برای استفادههای کوتاه و سرپایی در نظرگرفته شدهاند.واژههای گوناگونی برای نامیدن این ترمینالها به کار میرودف از جمله : کیوسک عمومی اینترنت و یا پایانه دسترسی عمومی.
این ترمینالها به گستردگی برای کاربردهایی چون رزرو بلیط، سپرده گذاری بانکی، پرداخت برخط مورد استفاده قرار میگیرد. وای-فای(Wi-Fi) دسترسی بی سیم به شبکههای رایانهای و در نتیجه به اینترنت را فراهم میکند. نقاط داغ (Hotspots) به مکانهایی گفته میشود که دسترسی به اینترنت بی سیم در آن نقاط امکانپذیر است و کاربران میتوانند با لپ تاپ و یا دستیار دیجیتال شخصی(PDA) خود به اینترنت متصل شوند. گاهی این سرویسهای بیسیم برای عموم و یا حداقل برای مشتریان رایگان ارائه میشود. یک نقطه داغ محدوده مکانی مشخصی را شامل میشود مثل محوطه یک دانشگاه، پارک و یا حتی سراسر نقاط یک شهر. سرویسهای تجاری Wi-Fi که کل شهر را پوشش میدهند هم اکنون در شهرهای لندن، وین، تورنتو، سانفرانسیسکو، فیلادلفیا، شیکاگو و پیتسبورگ ارائه میشوند. در این شهرها مشترکین میتوانند در هر نقطهای از شهر به شبکه وای-فای متصل شوند
.علاوه بر وای-فای، آزمایشهایی نیز در زمینه شبکههای بی سیم متحرک اختصاصی مانن ریکوچت و سرویسهای دادهای پرسرعت بر روی تلفنهای همراه، و شبکههای بی سیم ثابت انجام شدهاست. تلفنهای همراه پیشرفته مثل تلفنهای همراه هوشمند (Smartphone) همگی با قابلیت اتصال به اینترنت از طریق شبکه تلفن عرضه میشوند. مرورگرهای وب مثل اپرا معمولاً نسخهای برای این دستگاههای جیبی پیشرفته دارند.
آثار اجتماعی
اینترنت به دلیل خصوصیاتی چون قابلیت استفاده و دسترسی گسترده آن، اشکال کاملاً جدیدی از تعاملات، فعالیتها، و سازماندهیهای اجتماعی را پدید آوردهاست. وبگاههای شبکههای اجتماعی چون فیسبوک، توییتر و مایاسپیس روشهای جدیدی برای معاشرت و تعامل خلق کردهاند. کاربران این سایتها قادرند اطلاعات گوناگونی به صفحات خود بیفزایند، علایق مشترکی را دنبال کنند و به دیگران مرتبط شوند. وبگاههایی مثل لینکداین به پرورش ارتباطات حرفهای و تجاری میپردازد. یوتیوب و فلیکر هم در زمینه ویدیوها و تصاویر کاربران تخصص دارند.
دهه اول سده بیست و یکم، شاهد پرورش اولین نسلی است که در شرایطی رندگی میکنند که اینترنت به گستردگی در دسترس میباشد. این مسایل و نگرانیهایی را به دنبال دارد از جمله مسئله حفظ حریم خصوصی و هویت و توزیع غیر مجاز مواردی که تحت قانون کپی رایت محافظت میشوند. این بومیان دیجیتال با انبوهی از مسایلی مواجه میشوند که در مورد نسلهای قبلی وجود نداشت.
اینترنت کاربرد جدیدی به عنوان بک ابزار سیاسی یافتهاست مه این منجر به سانسوراینترنت میشود. نمونه استفاده سیاسی از اینترنت، مبارزه انتخاباتی هاوارد دین در سال ۲۰۰۴ در ایالات متحده بود که به دلیل جمع آوری کمکهای مردمی از طریق اینترنت شایان توجه بود. بسیاری از گروههای سیاسی از اینترنت برای سازماندهی در انجام ماموریت خود استفاده میکنند. برخی از دولتها مانند ایران، کره شمالی، میانمار، چین وعربستان، آنچه را که مردم میتوانند از طرق اینترنت ببینند، به ویژه در مورد مسایل سیاسی و مذهبی محدود مینمایند.
این کار از طریق نرمافزارهایی که دامنه و محتوا را فیلتر میکنند صورت میپذیرد. در نروژ، دانمارک، فنلاند و سوئد، ارائه دهندگان اصلی خدمات اینترنت به صورت داوطلبانه و احتمالاً برای اجتناب از قانون شدن فیلترینگ، قبول کردهاند که دسترسی به سایتهایی که توسط مقامات مسوول لیست شدهاست را محدود نمایند. اگرچه قرار بر این است که این آدرسهای ممنوع شده تنها شامل وبگاههای هرزه نگاری کودکان باشد، اما محتوای این لیست مخفی است.
در بسیاری از کشورها مانند ایالات متحده امریکا، اگرپه قوانینی در ممنوعیت پخش موارد دربردارنده هرزه نگاری کودک تصویب نمودهاند اما استفاده از نرم افرارهای فیلترینگ را اجباری نکردهاند. نرمافزارهای تجاری و یا رایگان بسیاری تحت عنوان نرمافزار کنترل محتوا در دسترس هستند که کاربران از طریق آنها میتوانند وبگاههای مستهجن را در رایانه شخصی و یا شبکه محلی مسدود نمود تا از دسترسی کودکان به مواد هرزه نگاری و یا خشونت نگاری جلو گیری نمود.
اینترنت از آغاز پیدایش همواره وسیله مناسبی برای فعالیتهای تفریحی بودهاست. بسیاری از انجمنهای اینترنتی بخشهایی برای بازی و ویدیوهای خنده دار و کارتونهای کوتاه در قالب انیمیشنهای فلش(Flash) دارند. بیش از ۶ میلیون نفر در اینترنت از وب نوشتها و تختههای پیام برای برقراری ارتباط استفاده میکنند. صنایع هرزه نگاری و قمار از اینترنت سود میجویند تا وبگاههایی بسازند که منبع کلان تبلیغات برای سایر وبگاهها میباشند.
اگرچه بسیاری از دولتها برای محدود سازی استفاده این دو صنعت ازاینترنت تلاش کردهاند اما در جلوگیری از گسترش محبوبیت آنها چندان موفق نبودهاند.یکی از فعالیتهای تفریحی اصلی در اینترنت، بازیهای چند نفره است. این شکل تفریح اجتماعاتی را بوجود میآورد که در آن افراد از هر سن و نژادی از دنیای بازیهای چندنفره کامپیوتری لذت میبرند. اگرچه بازیهای برخط از سال ۱۹۷۰ وجود داشتهاند،
اما گونه مدرن این بازیها با خدمات اشتراکی مانند گیماسپای و MPlayer آغاز شد. غیر مشترکین محدود به بازیهای خاص و یا زمان بازی خاص بودند. بسیاری از مردم از اینترنت برای دسترسی و بارگیری(download) موسیقی و فیلم و سایر آثار استفاده میکنند. این خدمات به هر دو صورت رایگان و پولی، با استفاده ازسرورهای مرکزی و یا فناوریهای نظیر-به-نظیر توزیع شده ارائه میشوند.برخی از این منابع توجه بیشتری نسبت به سایرین در زمینه حقوق مولفین اصلی نشان دادهاند.
بسیاری از مردم از اینترنت برای دسترسی به اخبار، پیش بینی آب وهوا، گزارشهای ورزشی و جستجوی مطالب در مورد علاقهمندیهای خود استفاده میکنند. آنها از گپ برخط، پیام رسان فوری و پست الکترونیک برای در تماس بودن با دوستان خود در سراسر دنیا و به شیوهای شبیه به دوست مکاتبهای که در قدیم رواج داشت، استفاده میکنند. اینترنت شاهد شمار رو به افزایش میزکارهای وب که در آن کاربران به فایلها و تنظیمات خود دسترسی پیدا میکنند، بودهاست."کم کاری سایبری" (Cyberslacking) محل اتلاف جدی منابع سازمانهاست. کارمندان انگلیسی به طور میانگین ۵۷٪ از وقت خود را به وب گردی در حین کار میپردازند.
تاثیرات ذهنی
بر روی آثار اینترنت بر مغز انسان مطالعات زیادی انجام شدهاست. نیکلاس کار(به انگلیسی: Nicholas Carr) ادعا میکند که اینترنت تفکر عمیق را که عامل خلاقیت واقعی است کاهش میدهد. او همچنین میگوید که پیوندهای فرامتن و تحریک بیش از حد، به این معنی است که مغز باید بیشتر توجهش را بر روی تصمیمات کوتاه متمرکز کند. او همچنین بیان میکند که اینترنت مغز را غرق در اندیشه میکند که باعث آسیب رسیدن به حافظه بلند مدت میگردد. شمار فراوان محرکها در اینترنت منجر به بار شناختی(Cognitive Load) سنگینی برای مغز میشود که یادآوری هرچیزی را مشکل میسازد.استیون پینکر (به انگلیسی: Steven Pinker)، روانشناس، نظری مخالف دارد. او به این نکته اشاره میکند که افراد بر روی آنچه انجام میدهند کنترل دارند وبنابراین این پژوهش و استدلال هرگز طبیعت انسان را در نظر نداشتهاست. او میگوید "تجربه ظرفیتهای پردازش اطلاعات مغز را عوض نمیکند" و ادعا میکند که اینترنت باعث باهوشتر شدن انسانها شدهاست.
تاریخ اینترنت
اتحاد جماهیر شوروی آن زمان موشکی با نام «اسپونیک» (Spotnik) را به فضا میفرستد و نشان میدهد دارای قدرتی است که میتواند شبکههای ارتباطی آمریکا را توسط موشکهای بالستیک و دوربرد خود از بین ببرد. آمریکاییها در پاسخگویی به این اقدام روسها، موسسه پروژههای تحقیقی پیشرفته “ARPA” را بهوجود آوردند. هدف از تاسیس چنین موسسهای پژوهش و آزمایش برای پیدا کردن روشی بود که بتوان از طریق خطوط تلفنی، کامپیوترها را به هم مرتبط نمود. به طوری که چندین کاربر بتوانند از یک خط ارتباطی مشترک استفاده کنند. در اصل شبکهای بسازند که در آن دادهها به صورت اتوماتیک بین مبدا و مقصد حتی در صورت از بین رفتن بخشی از مسیرها جابهجا و منتقل شوند. در اصل هدف “ARPA” ایجاد یک شبکه اینترنتی نبود و فقط یک اقدام احتیاطی در مقابل حمله احتمالی موشکهای اتمی دوربرد بود. هر چند اکثر دانش امروزی ما درباره شبکه بهطور مستقیم از طرح آرپانت “ARPPA NET” گرفته شدهاست. شبکهای که همچون یک تار عنکبوت باشد و هر کامپیوتر ان از مسیرهای مختلف بتواند با همتایان خود ارتباط دااشته باشد واگر اگر یک یا چند کامپیوتر روی شبکه یا پیوند بین انها از کار بیفتادبقیه باز هم بتوانستند از مسیرهای تخریب نشده با هم ارتباط بر قرار کنند.
این ماجرا با وجودی که بخشی از حقایق بهوجود آمدن اینترنت را بیان میکند اما نمیتواند تمام واقعیات مربوط به آن را تشریح کند. باید بگوییم افراد مختلفی در تشکیل اینترنت سهم داشتهاند آقای “Paul Baran” یکی از مهمترین آنهاست. آقای باران که در دوران جنگ سرد زندگی میکرد میدانست که شبکه سراسری تلفن آمریکا توانایی مقابله با حمله اتمی شوروی سابق را ندارد. مثلاً اگر رییس جمهور وقت آمریکا حمله اتمی متقابل را دستور دهد، باید از یک شبکه تلفنی استفاده میکرد که قبلاً توسط روسها منهدم شده بود. در نتیجه طرح یک سیستم مقاوم در مقابل حمله اتمی روسها ریخته شد.آقای باران (Baran) تشکیل و تکامل اینترنت را به ساخت یک کلیسا تشبیه کرد و معتقد بود، طی سالهای اخیر هر کس سنگی به پایهها و سنگهای قبلی بنا اضافه میکند و انجام هر کاری وابسته به کارهای انجام شده قبلی است. بنابراین نمیتوان گفت، کدام بخش از کار مهمترین بخش کار بودهاست و در کل پیدایش اینترنت نتیجه کار و تلاش گروه کثیری از دانشمندان است. داستان پیدایش اینترنت با افسانه و واقعیت در هم آمیخته شدهاست.
در اوایل دهه ۶۰ میلادی آقای باران طی مقالاتی پایه کار اینترنت امروزی را ریخت. اطلاعات و دادهها به صورت قطعات و بستههای کوچکتری تقسیم و هر بسته با آدرسی که به آن اختصاص داده میشود به مقصد خاص خود فرستاده میشود. به این ترتیب بستهها مانند نامههای پستی میتوانند از هر مسیری به مقصد برسند. زیرا آنها شامل آدرس فرستنده و گیرنده هستند و در مقصد بستهها مجدداً یکپارچه میشوند و به صورت یک اطلاعات کامل درمیآیند.
آقای باران (Baran) طی مقالاتی اینچنینی ساختمان و ساختار اینترنت را پیشگویی کرد. او از کار سلولهای مغزی انسان به عنوان الگو استفاده کرد، او معتقد بود: وقتی سلولهای مغزی از بین بروند، شبکه عصبی از آنها دیگر استفاده نمیکند و مسیر دیگری را در مغز انتخاب میکند. از دیدگاه وی این امکان وجود دارد که شبکهای با تعداد زیادی اتصالات برای تکرار ایجاد شوند تا در صورت نابودی بخشی از آن، همچنان به صورت مجموعهای به هم پیوسته کار کند. تا نیمه دهه ۶۰ میلادی کسی به نظرات او توجهای نکرد. تا اینکه در سال ۱۹۶۵ نیروی هوایی آمریکا و«آزمایشگاههای بل» به نظرات او علاقهمند شدند و پنتاگون با سرمایهگذاری در طراحی و ساخت شبکهای براساس نظریات او موافقت کرد.
ولی آقای باران (Baran) بنابر دلایلی حاضر با همکاری با نیروی هوایی آمریکا نشد. در این میان دانشمندی با نام تیلور (Tailon) وارد موسسه آرپا (ARPA) شد. او مستقیماً به آقای هرتسفلد رییس موسسه پیشنهاد کرد: (ARPA) آرپا هزینه ایجاد یک شبکه آزمایشی کوچک با حداقل چهار گره را تامین کند که بودجه آن بالغ بر یک میلیون دلار میشد. با این پیشنهاد تیلور تجربهای را آغاز کرد که منجر به پیدایش اینترنت امروزی شد. او موفق شد در سال ۱۹۶۶، دو کامپیوتر را در شرق و غرب آمریکا به هم متصل کند. با این اتصال انقلابی در نحوه صدور اطلاعات در دنیای ارتباطات رخ داد که نتیجه آن را امروز همگی شاهد هستیم. این شبکه به بستههایی (packet) از دادهها که به وسیله کامپیوترهای مختلف ارسال میشدند اتکا داشت. پس از انکه ازمایشها سودمندی انرا مشخص کردند سایر بخشهای دولتی و دانشگاهها پژوهشی تمایل خود را به وصل شدن به ان اعلام کردند . ارتباطات الکترونیکی به صورت روشی موثر برای دانشمندان و دیگران به منظور استفاده مشترک از دادهها در امد. در همان زمان که ARPAnet در حال رشد بود تعدادی شبکه پوشش محلی (LAN) در نقاط مختلف آمریکا به وجود امد. مدیران LANها نیز به وصل کردن کامپیوترهای شبکههای خود به شبکههای بزرگتر اقدام کردند . پروتوکل اینترنت ARPAnet IP زبان استاندارد حکمفرما برای برقراری ارتباط کامپیوترهای شبکههای مختلف به یکدیگر شد.تاریخ تولد اینترنت به طور رسمی اول سپتامبر ۱۹۶۹ اعلام شدهاست. زیرا که اولین “IMP” در دانشگاه “UCLA” واقع در سانتاباربارا در این تاریخ بارگذاری شدهاست.
از اوایل دهه ۱۹۹۰ رشد استفاده از اینترنت به صورت تصاعدی افزایش یافت . یکی از علل چنین استقبالی ابزار جستجویی مانند Gopher و archie بودهاست اما اینها در سال ۱۹۹۱ تحت تاثیر word wide web قرار گرفتند که به وسیله CERN یا ازمایشگاه فیزیک هستهای اروپا ساخته شد . با ان که اینترنت از ابتدا طوری بود که مبادله اطلاعات برای تازه واردان بسیار ساده باشد. بزرگترین جهش در وب در سال ۱۹۹۳ با عرضه نرمافزار موزاییک mosaic که نخستین برنامه مرورگر وب گرافیکی بود به وجود امد. برنامه موزاییک محصول تلاش دانشجویان و استادان بخش "مرکز ملی کاربردهای ابر کامپیوتر " در دانشگاه ایلینویز آمریکا بود. برای نخستین بار موزاییک امکانات اشاره و کلیک (به وسیله موش) را فراهم کرد. کاربران میتوانستند صفحات وب (web page) یا مجموعهای از متن و گرافیک را کنار هم بگذارند تا هر کسی که میخواست انها را بتواند روی اینترنت ببیند. وقتی با موش روی کلمهها یا تصاویر خاصی که hyper link نامیده میشد کلیک میکردند برنامه موزاییک به طور خود کار یک صفحه دیگر باز میکرد که به کلمه یا تصویر خاص و کلیک شده اختصاص داشت. بهترین بخش این سیستم انجا بود که hyper linkها میتوانستند به صفحاتی روی همان کامپیوتر یا هر کامپیوتر دیگر اینترنت با خدمات وب اشاره کنند. صفحات وب هر روز متولد میشدند و مفهوم موج سواری یا surfing روی وب متولد شد. اواسط سال ۱۹۹۴ سه میلیون کامپیوتر به اینترنت وصل شده بود و در ان هنگام اجرای عملیات اهسته نشده بود. صفحات جدید وب که شامل همه چیز از اسناد دولتی تا مدارک شرکتها و مدلهای جدید لباس بود در سراسر دنیا چندین برابر شد . موزاییک و جانشینان ان مانند navigator محصول شرکت " نت اسکیپ " اینترنت را از قلمرو علمی به میان مردم اوردند. طبق اخرین امار ۵۱ درصد کاربران بعد از سال ۱۹۹۵ وارد این محیط شدهاند. میلیونها انسانی که از اینترنت استفاده میکنند نیازی ندارند که نکات فنی مانند TCP/IP را بدانند . امروزه شرکتهای خدمات دهنده اینترنت یا ISP این کار را به عهده دارند.رشد روز افزون ان و ساده تر شدن استفاده ان همچنان ادامه دارد . هر چه تعداد مردم بیشتری به اینترنت رجوع کنند تعداد شرکتهای سازنده برنامههای اینترنت بیشتر میشود.با انکه بعضی از عاشقان اینترنت ان را نوعی شیوه زندگی میدانند. در نظر بیشتر کاربران منبع سرگرمی اطلاعات است ولی بیشترین مصرف ان پست الکترونیکی یا همان email است که یکی از ابزارهای ارتباطی کار امد به شمار میرود. پیامها از کامپیوتری به کامپیوتر دیگر با سرعت پرواز میکنند و منتظر میمانند تا شخص فرصت خواندن انها را پیدا کند . وب امکانات خوبی برای کپی از نرمافزارهای مجاز از لحاظ کپی فراهم میسازد. وقتی که میبینیم که در مدت کوتاهی اینترنت به چنین رشدی نایل آمده است، مطمئناً دشوار خواهد بود که آینده او را پیش بینی کنیم. طبق نظر کارشناسان ماهانه ۱۰ درصد به تعداد کاربران اینترنت افزوده میشود ولی تعداد دقیق کاربران که روزانه از آن استفاده میکنند مشخص نیست. هرچند که پارهای از کارشناسان تعداد آنها را تا ۹۰۰ میلیون نفر حدس میزنند. تعداد رسمی کاربران اینترنتی را در سال ۲۰۰۰ کارشناسان ۵۰۰ میلیون نفر اعلام کرده بودند.
قطعاً در سالهای آینده تحولات شگرفی را در زمینه شبکههای اینترنتی شاهد خواهیم بود. بهوسیله اینترنت انسان به راههای جدیدی دست پیدا کرد. در کنار این شانس جدید توسط اینترنت، باید بگوییم خطراتی نیز در رابطه با سیاست و اقتصاد و علم به دنبال خواهد داشت. فرم امروزی اینترنت مدیون همکاری تمام کاربران اینترنت در سرتاسر گیتی است که با این تصور که اطلاعات موجود در سطح جهان را به راحتی با یکدیگر مبادله کنند. این تصوری بود که آقای باران(Baran) از اینترنت داشت و امیدواریم در آینده نیز تکامل اینترنت در این مسیر باشد.