آمار پارامتری
آمار پارامتری

آمار پارامتری به مجموعه روش‌های آماری‌ای گفته می‌شود که مدل‌ای پارامتری برای پدیدهٔ احتمالی مورد مطالعه فرض می‌شود و همهٔ استنتاج‌های آماری از آن پس بر اساس آن مدل انجام می‌شود.






به عنوان مثال فرض می‌شود که توزیع نمره‌های یک امتحان از توزیع نرمال پیروی می‌کند. در نتیجه برای مشخص‌شدن توزیع احتمال، کافی است میانگین و واریانس توزیع را از روی داده‌های تجربی (نمره‌های دانش‌آموزان) به دست بیاوریم. حال برای پاسخ‌گفتن به سوال‌هایی چون «درصد دانش‌آموزانی که نمره‌ای بین ۱۰ تا ۱۵ آورده‌اند» از تابع توزیع به دست آمده استفاده می‌کنیم (البته بدیهی است که روش‌های ساده‌تری نیز برای چنین کاری وجود دارد).

نقطهٔ ضعف این شیوهٔ تحلیل آماری این است که در صورتی که مدل فرض‌شده با واقعیت تطبیق نداشته باشد، نتیجه‌گیری‌ها صحیح نخواهد بود.





آماره

آماره در آمار به عددی گویند که یک توزیع نمونه‌برداری را خلاصه‌سازی یا توصیف می‌کند.

تابع U=g(X۱, X۲, …, Xn)‎ از نمونهٔ تصادفی X۱, X۲, …, Xn را که در آن پارامتر مجهولی وجود نداشته باشد یک آماره می‌گویند. در این تعریف U یک متغیر تصادفی است که توزیع آن ممکن است به پارامتر بستگی نداشته باشد؛ اما تنها آماره‌هایی برای برآورد کردن مفید هستند که توزیعشان به پارامتر مجهول بستگی داشته باشد و اطلاعاتی در مورد این پارامتر به ما بدهند.





آنتروپی آماری
انتروپی آماری یک کمیت ترمودینامیکی است که در شیمی‌فیزیک کاربردهای فراوان دارد.





استنباط آماری
چنانچه به جای مطالعه کل اعضای جامعه، بخشی از آن با استفاده از فنون نمونه‌گیری انتخاب شده، و مورد مطالعه قرار گیرد و بخواهیم نتایج حاصل از آن را به کل جامعه تعمیم دهیم از روش‌هایی استفاده می‌شود که موضوع آمار استنباطی (Inferential statistics) است. آن چه که مهم است این است که در گذر از آمار توصیفی به آمار استنباطی یا به عبارت دیگر از نمونه به جامعه بحث و نقش احتمال شروع می‌شود. در واقع احتمال، پل رابط بین آمار توصیفی و استنباطی به حساب می‌آید.





توزیع جامعه

توزیع جامعه یا توزیع جمعیت (به انگلیسی: Population distribution) در آمار به توزیع تمام مشاهدات امکان پذیر را گویند.





چولگی

در آمار و نظریه احتمالات چولگی نشان دهنده میزان عدم تقارن توزیع احتمالی است. اگر داده‌ها نسبت به میانگین متقارن باشند، چولگی برابر صفر خواهد بود.






تعریف

چولگی برابر با گشتاور سوم نرمال شده است. چولگی در حقیقت معیاری از وجود یا عدم تقارن تابع توزیع می باشد. برای یک توزیع کاملاً متقارن چولگی صفر و برای یک توزیع نامتقارن با کشیدگی به سمت مقادیر بالاتر چولگی مثبت و برای توزیع نامتقارن با کشیدگی به سمت مقادیر کوچکتر مقدار چولگی منفی است.





داده‌کاوی

داده کاوی، پایگاه‌ها و مجموعه‌های حجیم داده‌ها را در پی کشف واستخراج دانش، مورد تحلیل و کند و کاوهای ماشینی (و نیمه‌ماشینی) قرار می‌دهد. این گونه مطالعات و کاوش‌ها را به واقع می‌توان همان امتداد و استمرار دانش کهن و همه جا گیر آمار دانست. تفاوت عمده در مقیاس، وسعت و گوناگونی زمینه‌ها و کاربردها، و نیز ابعاد و اندازه‌های داده‌های امروزین است که شیوه‌های ماشینی مربوط به یادگیری، مدل‌سازی، و آموزش را طلب می‌نماید.

در سال 1960 آماردانان اصطلاح "Data Fishing" یا "Data Dredging"به معنای "صید داده" را جهت کشف هر گونه ارتباط در حجم بسیار بزرگی از داده ها بدون در نظر گرفتن هیچگونه پیش فرضی بکار بردند. بعد از سی سال و با انباشته شدن داده ها در پایگاه های داده یا Database اصطلاح "Data Mining" یا داده کاوی در حدود سال 1990 رواج بیشتری یافت. اصطلاحات دیگری نظیر "Data Archaeology"یا "Information Harvesting" یا "Information Discovery" یا"Knowledge Extraction" نیز بکار رفته اند.

اصطلاح Data Mining همان طور که از ترجمه آن به معنی داده کاوی مشخص می‌شود به مفهوم استخراج اطلاعات نهان و یا الگوها وروابط مشخص در حجم زیادی از داده‌ها در یک یا چند بانک اطلاعاتی بزرگ است.






مقدمه

بسیاری از شرکت‌ها و موسسات دارای حجم انبوهی از اطلاعات هستند. تکنیک‌های داده‌کاوی به طور تاریخی به گونه‌ای گسترش یافته‌اند که به سادگی می‌توان آنها را بر ابزارهای نرم‌افزاری و ... امروزی تطبیق داده و از اطلاعات جمع آوری شده بهترین بهره را برد.

در صورتی که سیستم‌های Data Mining بر روی سکوهای Client/Server قوی نصب شده باشد و دسترسی به بانک‌های اطلاعاتی بزرگ فراهم باشد، می‌توان به سوالاتی از قبیل :کدامیک از مشتریان ممکن است خریدار کدامیک از محصولات آینده شرکت باشند، چرا، در کدام مقطع زمانی و بسیاری از موارد مشابه پاسخ داد.






ویژگی‌ها

یکی از ویژگیهای کلیدی در بسیاری از ابتکارات مربوط به تامین امنیت ملی، داده کاوی است. داده کاوی که به عنوان ابزاری برای کشف جرایم، ارزیابی میزان ریسک و فروش محصولات به کار می‌رود، در بر گیرنده ابزارهای تجزیه و تحلیل اطلاعات به منظور کشف الگوهای معتبر و ناشناخته در بین انبوهی از داده هاست. داده کاوی غالباً در زمینه تامین امنیت ملی به منزله ابزاری برای شناسایی فعالیت‌های افراد خرابکار شامل جابه جایی پول و ارتباطات بین آنها و همچنین شناسایی و ردگیری خود آنها با برسی سوابق مربوط به مهاجرت و مسافرت هاست. داده کاوی پیشرفت قابل ملاحظه‌ای را در نوع ابزارهای تحلیل موجود نشان می‌دهد اما محدودیت‌هایی نیز دارد. یکی از این محدودیت‌ها این است که با وجود اینکه به آشکارسازی الگوها و روابط کمک می‌کند اما اطلاعاتی را در باره ارزش یا میزان اهمیت آنها به دست نمی‌دهد. دومین محدودیت آن این است که با وجود توانایی شناسایی روابط بین رفتارها و یا متغیرها لزوماً قادر به کشف روابط علت و معلولی نیست. موفقیت داده کاوی در گرو بهره گیری از کارشناسان فنی و تحلیل گران کار آزموده‌ای است که از توانایی کافی برای طبقه بندی تحلیل‌ها و تغییر آنها برخوردار هستند. بهره برداری از داده کاوی در دو بخش دولتی و خصوصی رو به گسترش است. صنایعی چون بانکداری، بیمه، بهداشت و بازار یابی آنرا عموماً برای کاهش هزینه‌ها، ارتقاء کیفی پژوهش‌ها و بالاتر بردن میزان فروش به کار می‌برند. کاربرد اصلی داده کاوی در بخش دولتی به عنوان ابزاری برای تشخیص جرایم بوده‌است اما امروزه دامنه بهره برداری از آن گسترش روزافزونی یافته و سنجش و بهینه سازی برنامه‌ها را نیز در بر می‌گیرد. بررسی برخی از برنامه‌های کاربردی مربوط به داده کاوی که برای تامین امنیت ملی به کار می‌روند، نشان دهنده رشد قابل ملاحظه‌ای در رابطه با کمیت و دامنه داده‌هایی است که باید تجزیه و تحلیل شوند. توانایی‌های فنی در داده کاوی از اهمیت ویژه‌ای برخوردار اند اما عوامل دیگری نیز مانند چگونگی پیاده سازی و نظارت ممکن است نتیجه کار را تحت تأثیر قرار دهند. یکی از این عوامل کیفیت داده هاست که بر میزان دقت و کامل بودن آن دلالت دارد. عامل دوم میزان سازگاری نرم‌افزار داده کاوی با بانکهای اطلاعاتی است که از سوی شرکت‌های متفاوتی عرضه می‌شوند عامل سومی که باید به آن اشاره کرد به بیراهه رفتن داده کاوی و بهره برداری از داده‌ها به منظوری است که در ابتدا با این نیت گرد آوری نشده‌اند. حفظ حریم خصوصی افراد عامل دیگری است که باید به آن توجه داشت. اصولاً به پرسش‌های زیر در زمینه داده کاوی باید پاسخ داده شود:

سازمانهای دولتی تا چه حدی مجاز به بهره برداری از داده‌ها هستند؟
آیا از داده‌ها در چارچوبی غیر متعارف بهره برداری می‌شود؟
کدام قوانین حفظ حریم خصوصی ممکن است به داده کاوی مربوط شوند؟

کاوش در داده‌ها بخشی بزرگ از سامانه‌های هوشمند است. سامانه‌های هوشمند زیر شاخه‌ایست بزرگ و پرکاربرد از زمینه علمی جدید و پهناور یادگیری ماشینی که خود زمینه‌ای‌ست در هوش مصنوعی.

فرایند گروه گروه کردن مجموعه‌ای از اشیاء فیزیکی یا مجرد به صورت طبقه‌هایی از اشیاء مشابه هم را خوشه‌بندی می‌نامیم.

با توجه به اندازه‌های گوناگون (و در اغلب کاربردها بسیار بزرگ و پیچیده) مجموعه‌های داده‌ها مقیاس‌پذیری الگوریتم‌های به کار رفته معیاری مهم در مفاهیم مربوط به کاوش در داده‌ها است.

کاوش‌های ماشینی در متون حالتی خاص از زمینهٔ عمومی‌تر کاوش در داده‌ها بوده، و به آن دسته از کاوش‌ها اطلاق می‌شود که در آن‌ها داده‌های مورد مطالعه از جنس متون نوشته شده به زبان‌های طبیعی انسانی باشد.






چیستی

داده کاوی به بهره گیری از ابزارهای تجزیه و تحلیل داده‌ها به منظور کشف الگوها و روابط معتبری که تا کنون ناشناخته بوده‌اند اطلاق می‌شود. این ابزارها ممکن است مدلهای آماری، الگوریتم‌های ریاضی و روش‌های یاد گیرنده (Machine Laming Method) باشند که کار این خود را به صورت خودکار و بر اساس تجربه‌ای که از طریق شبکه‌های عصبی (Neural Networks) یا درخت‌های تصمیم گیری (Decision Trees) به دست می‌آورند بهبود می‌بخشد. داده کاوی منحصر به گردآوری و مدیریت داده‌ها نبوده و تجزیه و تحلیل اطلاعات و پیش بینی را نیز شامل می‌شود برنامه‌های کاربردی که با بررسی فایل‌های متن یا چند رسانه‌ای به کاوش داده‌ها می پردازند پارامترهای گوناگونی را در نظر می‌گیرد که عبارت اند از:

قواعد انجمنی (Association): الگوهایی که بر اساس آن یک رویداد به دیگری مربوط می‌شود مثلاً خرید قلم به خرید کاغذ.
ترتیب (Sequence): الگویی که به تجزیه و تحلیل توالی رویدادها پرداخته و مشخص می‌کند کدام رویداد، رویدادهای دیگری را در پی دارد مثلاً تولد یک نوزاد و خرید پوشک.
پیش بینی(Prediction): در پیش بینی هدف پیش بینی یک متغیر پیوسته می باشد. مانند پیش بینی نرخ ارز یا هزینه های درمانی.
رده بندی یا طبقه بندی (Classification): فرآیندی برای پیدا کردن مدلی است که رده های موجود در داده‌ها را تعریف می نماید و متمایز می کند، با این هدف که بتوان از این مدل برای پیش بینی رده رکوردهایی که برچسب رده آنها(متغیر هدف) ناشناخته می باشد، استفاده نمود. در حقیقت در رده بندی بر خلاف پیش بینی، هدف پیش بینی مقدار یک متغیر گسسته است. روش های مورد استفاده در پیش بینی و رده بندی عموما یکسان هستند.
خوشه بندی(Clustering): گروه بندی مجموعه ای از اعضاء، رکوردها یا اشیاء به نحوی که اعضای موجود در یک خوشه بیشترین شباهت را به یکدیگر و کمترین شباهت را به اعضای خوشه های دیگر داشته باشند.
مصورسازی (visualization): مصورسازی داده ها یکی از قدرتمندترین و جذابترین روش های اکتشاف در داده ها می باشد.

برنامه‌های کاربردی که در زمینه تجزیه و تحلیل اطلاعات به کار می‌روند از امکاناتی چون پرس و جوی ساخت یافته (Structured query) که در بسیاری از بانک‌های اطلاعاتی یافت می‌شود و از ابزارهای تجزیه و تحلیل آماری برخوردارند اما برنامه‌های مربوط به داده کاوی در عین برخورداری از این قابلیت‌ها از نظر نوع با آنها تفاوت دارند. بسیاری از ابزارهای ساده برای تجزیه و تحلیل داده‌ها روشی بر پایه راستی آزمایی (verifiction)را به کار می‌برند که در آن فرضیه‌ای بسط داده شده آنگاه داده‌ها برای تایید یا رد آن بررسی می‌شوند. به طور مثال ممکن است این نظریه مطرح شود که فردی که یک چکش خریده حتماً یک بسته میخ هم خواهد خرید. کارایی این روش به میزان خلاقیت کاربر برای ارایه فرضیه‌های متنوع و همچنین ساختار برنامه بکار رفته بستگی دارد. در مقابل در داده کاوی روشهایی برای کشف روابط بکار برده می‌شوند و به کمک الگوریتم‌هایی روابط چند بعدی بین داده‌ها تشخیص داده شده و آنهایی که یکتا (unique) یا رایج هستند شناسایی می‌شوند. به طور مثال در یک فروشگاه سخت‌افزار ممکن است بین خرید ابزار توسط مشتریان با تملک خانه شخصی یا نوع خودرو، سن، شغل، میزان درآمد یا فاصله محل اقامت آنها با فروشگاه رابطه‌ای برقرار شود.

در نتیجه قابلیت‌های پیچیده‌اش برای موفقیت در تمرین داده کاوی دو مقدمه مهم است یکی فرمول واضحی از مشکل که قابل حل باشد و دیگری دسترسی به داده متناسب. بعضی از ناظران داده کاوی را مرحله‌ای در روند کشف دانش در پایگاه داده‌ها می‌دانند (KDD). مراحل دیگری در روند KDD به صورت تساعدی شامل، پاکسازی داده، انتخاب داده انتقال داده، داده کاوی، الگوی ارزیابی، و عرضه دانش می‌باشد. بسیاری از پیشرفت‌ها در تکنولوژی و فرایندهای تجاری بر رشد علاقه‌مندی به داده کاوی در بخش‌های خصوصی و عمومی سهمی داشته‌اند. بعضی از این تغییرات شامل:

رشد شبکه‌های کامپیوتری که در ارتباط برقرار کردن پایگاهها داده مورد استفاده قرار می‌گیرند.
توسعه افزایش تکنیکهایی بر پایه جستجو مثل شبکه‌های عصبی و الگوریتم‌های پیشرفته.
گسترش مدل محاسبه کلاینت سروری که به کاربران اجازه دسترسی به منابع داده‌های متمرکز شده را از روی دسک تاپ می‌دهد.
و افزایش توانایی به تلفیق داده از منابع غیر متناجس به یک منبع قابل جستجو می‌باشد.

علاوه بر پیشرفت ابزارهای مدیریت داده، افزایش قابلیت دسترسی به داده و کاهش نرخ نگهداری داده نقش ایفا می‌کند. در طول چند سال گذشته افزایش سریع جمع آوری و نگه داری حجم اطلاعات وجود داشته‌است. با پیشنهادهای برخی از ناظران مبنی بر آنکه کمیت داده‌های دنیا به طور تخمینی هر ساله دوبرابر می‌گردد. در همین زمان هزینه ذخیره سازی داده‌ها بطور قابل توجهی از دلار برای هر مگابایت به پنی برای مگابایت کاهش پیدا کرده‌است. مطابقا قدرت محاسبه‌ها در هر ۱۸ – ۲۴ ماه به دوبرابر ارتقاء پیدا کرده‌است این در حالی است که هزینه قدرت محاسبه رو به کاهش است. داده کاو به طور معمول در دو حوزه خصوصی و عمومی افزایش پیدا کرده‌است. سازمانها داده کاوی را به عنوان ابزاری برای بازدید اطلاعات مشتریان کاهش تقلب و اتلاف و کمک به تحقیقات پزشکی استفاده می‌کنند. با اینهمه ازدیاد داده کاوی به طبع بعضی از پیاده سازی و پیامد اشتباه را هم دارد.اینها شامل نگرانی‌هایی در مورد کیفیت داده‌ای که تحلیل می‌گردد، توانایی کار گروهی پایگاههای داده و نرم‌افزارها بین ارگانها و تخطی‌های بالقوه به حریم شخصی می‌باشد.همچنین ملاحظاتی در مورد محدودیتهایی در داده کاوی در ارگان‌ها که کارشان تاثیر بر امنیت دارد، نادیده گرفته می‌شود.






محدودیت‌های داده کاوی

در حالیکه محصولات داده کاوی ابزارهای قدرتمندی می‌باشند، اما در نوع کاربردی کافی نیستند.برای کسب موفقیت، داده کاوی نیازمند تحلیل گران حرفه‌ای و متخصصان ماهری می‌باشد که بتوانند ترکیب خروجی بوجود آمده را تحلیل و تفسیر نمایند.در نتیجه محدودیتهای داده کاوی مربوط به داده اولیه یا افراد است تا اینکه مربوط به تکنولوژی باشد.

اگرچه داده کاوی به الگوهای مشخص و روابط آنها کمک می‌کند، اما برای کاربر اهمیت و ارزش این الگوها را بیان نمی‌کند.تصمیماتی از این قبیل بر عهده خود کاربر است.برای نمونه در ارزیابی صحت داده کاوی، برنامه کاربردی در تشخیص مظنونان تروریست طراحی شده که ممکن است این مدل به کمک اطلاعات موجود در مورد تروریستهای شناخته شده، آزمایش شود.با اینهمه در حالیکه ممکن است اطلاعات شخص بطور معین دوباره تصدیق گردد، که این مورد به این منظور نیست که برنامه مظنونی را که رفتارش به طور خاص از مدل اصلی منحرف شده را تشخیص بدهد.

تشخیص رابطه بین رفتارها و یا متغیرها یکی دیگر از محدودیتهای داده کاوی می‌باشد که لزوماًروابط اتفاقی را تشخیص نمی‌دهد.برای مثال برنامه‌های کاربردی ممکن است الگوهای رفتاری را مشخص کند، مثل تمایل به خرید بلیط هواپیما درست قبل از حرکت که این موضوع به مشخصات درآمد، سطح تحصیلی و استفاده از اینترنت بستگی دارد.در حقیقت رفتارهای شخصی شامل شغل(نیاز به سفر در زمانی محدود)وضع خانوادگی(نیاز به مراقبت پزشکی برای مریض)یا تفریح (سود بردن از تخفیف دقایق پایانی برای دیدن مکان‌های جدید) ممکن است بر روی متغیرهای اضافه تاثیر بگذارد.
ابزارهای داده کاوی

معروف‌ترین ابزارهای داده‌کاوی به ترتیب پرطرفدار بودن

Clementine که نسخه ۱۳ ان با نام SPSS Modeler نامیده می‌شود.

رپیدماینر
نرم‌افزار وکا







نرم‌افزار
برنامه های کاربردی و نرم‌افزار های داده کاوی متن-باز رایگان

Carrot2: پلتفرمی برای خوشه بندی متن و نتایج جستجو
Chemicalize.org: یک کاوشگر ساختمان شیمیایی و موتور جستجوی وب
ELKI: یک پروژه تحقیقاتی دانشگاهی با تحلیل خوشه ای پیشرفته و روش های تشخیص داده های خارج از محدوده که به زبان جاوا نوشته شده است.
GATE: یک پردازشگر زبان بومی و ابزار مهندسی زبان.






برنامه های کاربردی و نرم‌افزار های داده کاوی تجاری

Angoss KnowledgeSTUDIO: ابزار داده کاوی تولید شده توسط Angoss.
BIRT Analytics: ابزار داده کاوی بصری و تحلیل پیش بینی گر تولید شده توسط Actuate Corporation.
Clarabridge: راه حل تحلیلگر کلاس متن.
(E-NI(e-mining, e-monitor: ابزار داده کاوی مبتنی بر الگوهای موقتی.
IBM SPSS Modeler: نرم‌افزار داده کاوی تولید شده توسط IBM
Microsoft Analysis Services: نرم‌افزار داده کاوی تولید شده توسط مایکروسافت
Oracle Data Mining: نرم‌افزار داده کاوی تولید شده توسط اوراکل (کمیک)






بررسی اجمالی بازار نرم‌افزار های داده کاوی

تا کنون چندین محقق و سازمان بررسی هایی را بر روی ابزار های داده کاوی و راهنماییهایی برای داده کاو ها تهیه دیده اند. این بررسی ها بعضی از نقاط ضعف و قوت بسته های نرم‌افزاری را مشخص می کنند. همچنین خلاصه ای را از رفتار ها، اولویت ها و دید های داده کاوها تهیه کرده اند





درجه آزادی (آمار)

درجه آزادی یکی از مفاهیم بنیادین در آمار است. درک بسیاری از مفاهیم مطرح در آمار وابسته به درک مناسبی از این مفهوم است. بر اساس زمینهٔ کاربرد و شیوهٔ نگرش می‌توان تعاریف مختلفی برای آن ارائه نمود که همه یک مفهومند:

در نظریهٔ برآورد:

تعداد مقادیری که یک آماره امکان تغییر دارد

تعداد مشاهدات مستقل منهای تعداد پارامترهای برآورد شده.

بطور معادل: تعداد مشاهدات مستقل منهای تعداد روابط معلوم میان مشاهدات

در نظریه آزمون:

بعد فضای مجهول (مدل کامل) منهای بعد فضای مفروض (مدل مقید)

در جبر خطی:

رتبهٔ یک فرم درجه دوم

بطور معادل: تعداد ابعاد یک زیر فضا که یک بردار می‌تواند آزادانه گردش کند (مربع طول بردار یک فرم درجه دوم است)






درک شهودی

مثال: یک عدد ثابت امکان تغییر ندارد پس درجه آزادی آن برابر صفر است.

یک نقطه در صفحه یک رابطه میان دو متغیر در فضای دو بعدی است. با این نقطه نمیتوان میزان همبستگی خطی دو متغیر را با برآورد خط رگرسیون تخمین زد. چون بینهایت خط از این نقطه گذراست. (تصویر مقابل) در این مثال درجه آزادی صفر است (تعداد مشاهدات مستقل - تعداد روابط معلوم میان مشاهدات = 0) اگر خطی را بعنوان خط رگرسیونی در نظر بگیریم، این مدل نه قابل رد و نه قابل قبول است. بنابراین تعداد نمونه های قابل استفاده برای این مدل صفر است.

برای رسم خط رگرسیون حداقل دو نقطه لازم است. با دو نقطه یک درجه آزادی وجود دارد. از دو نقطه فقط یک خط گذر میکند و این خط تنها برآورد ممکن است. با اینکه دقت برآورد 100 درصد است اما این دقت کاذب به علت کم بودن درجات آزادی و اطلاعات قابل استفاده است. نمونه های زیادی از تحقیقات با رسیدن به دقتی بالا تصور میکنند که مدل بدست آمده مناسب است . در حالی که درجات آزادی کم باعث این اشتباه شده است.

مثال: اگر دو مشاهده داشته باشیم، برای برآورد میانگین دو مشاهدهء مستقل داریم، اما برای برآورد واریانس تنها یک مشاهدهء مستقل وجود دارد. زیرا هر دو مشاهده دارای یک فاصله از میانگین هستند.






دیدگاه فلسفی

برای درک بهتر این مفهوم میتوان درجهء آزادی را یک معادل برای درجهء ابطال پذیری از دیدگاه فلاسفه ای مانند کارل پوپر دانست. اگر در مسئله ای درجات آزادی کم

باشد معادل است با اینکه ابطال پذیری آن مسئله کم است. یعنی با هر مشاهده ای تایید میشود و قابل ابطال نیست.





سازمان آماری
سازمان آماری سازمانی خدماتی است که وظیفهٔ تهیهٔ آمار را بر عهده دارد. دلیل وجود، رشد و مشارکت مشهود آنها در امور مربوط به دولت و جامعةخود، از توانایی آنها در تهیة اطلاعاتی برای حل مسائل مهم ریشه می‌گیرد. ولی اولویتها می‌توانند سریعتر از توانایی سازمان برای تعدیل تلاش تولیدی خود تغییر کنند. به این دلیل، مهم است که مسئولان ارشد آن دارای شم قوی و روابطی باشند که بتوانند مشکلات جدی را شناسایی کرده و آنها را از آنچه ممکن است چیزی جز مسایل گذرا نباشند متمایز کنند.





شاخص‌های پراکندگی

سنجش‌های پراکندگی (به انگلیسی: Measures of Variability) به اعدادی گویند که پراکندگی مجموعه‌ای از مشاهدات یا داده‌های اندازه گیری شده‌ای را خلاصه و توصیف می‌کنند.

دامنه، واریانس، و انحراف معیار، هر سه نمونه‌هایی از سنجش‌های پراکندگی هستند.





ضریب تغییرات
در نظریه احتمال و آمار ضریب تغییرات (به انگلیسی: coefficient of variation، مخفف:CV) یک معیار بهنجار است که برای اندازه‌گیری توزیع داده‌های آماری به کار می‌رود.

به عبارت دیگر ضریب تغییرات، میزان پراکندگی به ازای یک واحد از میانگین را بیان می‌کند. این مقدار زمانی تعریف شده است که میانگین صفر نباشد.

این مقدار بی‌بعد است به همین دلیل مناسب برای مقایسه داده‌های آماری است که واحدهای مختلفی دارند.

ضریب تغییرات تنها قابل کاربرد برای مقیاس‌های نسبی است و نمی‌توان ار آن برای سنجش مقادیری که می‌توانند مقدار منفی بگیرند استفاده کرد یا به بیان بهتر نمی‌توان از آن برای سنجش مقادیر فاصله‌ای بهره برد. مثلاً اگر درجه حرارت را با مقیاس فارنهایت در نظر بگیریم برای آن نمی‌توان از ضریب تغییر اسفاده کرد و باید از مقیاس کلوین که همیشه مقداری مثبت است استفاده کرد.





متغیر پنهان
متغیرهای پنهان(در مقابل متغیرهای مشاهده شده)در آمار، متغیرهای هستند که بصورت مسقیم قابل مشاهده نیستند اما از میان متغیرهای دیگر که قابل مشاهده هستند توسط یک الگوی ریاضی استنباط می‌شوند. آنها همچنین بعضی وقت‌ها تحت عنوان متغیرهای پنهان، پارامترها ی مدل، متغیرهای فرضی یا ساختارهای فرضی شناخته می‌شوند.. استفاده متغیرهای پنهان در علوم اجتماعی متداول است، اقتصاد، پزشکی و تا حدی روبوتیک اما تعریف دقیق یک متغیر پنهان در این رشته‌ها کمی متفاوت است. مثال‌های از متغیرهای پنهان در حوزه اقتصاد عبارتند از کیفیت زندگی، اطمینان کار، روحیه، خوشحالی و اصول محافظه‌کاری: اینها متغیرها هستند که مستقیماً نمی‌توان آنها را سنجید. با این وجود یک مدل اقتصادی را می‌توان از پیوند این متغیرهای پنهان با متغیرهای مشاهده شده (از قبیل تولید ناخالص داخلی) بدست آورد و مقادیر متغیرهای پنهان را از متغیرهای مشاهده شده محاسبه و استنباط نمود.





متغیر تصادفی

در آمار و احتمال متغیر تصادفی متغیری است که مقدار آن از اندازه‌گیری برخی از انواع فرآیندهای تصادفی بدست می‌آید. بطور رسمی‌تر، متغیر تصادفی تابعی است از فضای نمونه به اعداد حقیقی. بطور مستقیم متغیر تصادفی توصیف عددی خروجی یک آزمایش است (مثل برآمدهای ممکن از پرتاب دو تاس (۱و۱) و (۱و۲) و غیره).

متغیرهای تصادفی به دو نوع گسسته (متغیر تصادفی که ممکن است تعداد محدود یا توالی نامحدودی از مقادیر را بگیرد) و پیوسته (متغیری که ممکن است هر مقدار عددی در یک یا چند بازه را بگیرد) طبقه‌بندی می‌شوند. مقادیر ممکن یک متغیر تصادفی می‌تواند نشان‌دهندهٔ برآمدهای آزمایشی که هنوز انجام نشده یا مقادیر بالقوهٔ یک کمیت که مقدارهای موجود آن نامطمئن هستند (مثلا درنتیجه اطلاعات ناقص یا اندازه‌گیری نادقیق) باشد. یک متغیر تصادفی می‌تواند بعنوان یک کمیت که مقدارش ثابت نیست و مقادیر مختلفی را می‌تواند بگیرد در نظر گرفته شود و توزیع احتمال برای توصیف احتمال اتفاق افتادن آن مقادیر استفاده می‌شود.

متغیرهای تصادفی معمولاً با اعداد حقیقی مقداردهی می‌شوند؛ ولی می‌توان انواع دلخواهی مانند مقدارهای بولی، اعداد مختلط، بردارها، ماتریس‌ها، دنباله‌ها، درخت‌ها، مجموعه‌ها، شکل‌ها، منیوفیلدها، توابع و فرآیندها را درنظر گرفت. عبارت المان تصادفی همه این نوع مفاهیم را دربرمی گیرد.

متغیرهای تصادفی که با اعداد حقیقی مقداردهی می‌شوند، در علوم برای پیش‌بینی براساس داده‌های بدست آمده از آزمایش‌های علمی استفاده می‌شوند. علاوه بر کاربردهای علمی، متغیرهای تصادفی برای آنالیز بازیهای قمار و پدیده‌های تصادفی بوجود آمدند. در چنین مواردی تابعی که خروجی را به یک عدد حقیقی می‌نگارد معمولا یک تابع همانی یا بطور مشابه یک تابع بدیهی است و بطور صریح توصیف نشده است. با این وجود در بسیاری از موارد بهتر است متغیر تصادفی را بصورت توابعی از سایر متغیرهای تصادفی درنظر بگیریم که دراینصورت تابع نگاشت استفاده شده در تعریف یک متغیر تصادفی مهم می‌شود. بعنوان مثال، رادیکال یک متغیر تصادفی با توزیع استاندارد (نرمال) خود یک متغیر تصادفی با توزیع کی دو است. شهود این مطلب بدین صورت است که تصور کنید اعداد تصادفی بسیاری با توزیع نرمال تولید کرده و از هرکدام رادیکال بگیریم و سپس هیستوگرام داده‌های بدست آمده را بکشیم در اینصورت اگر داده‌ها به تعداد کافی باشند، نمودار هیستوگرام تابع چگالی توزیع کی دو را با یک درجه آزادی تقریب خواهد زد.






نام‌های دیگر

در برخی از کتاب‌های قدیمی‌تر به جای «متغیر تصادفی»، اصطلاح‌های «متغیر شانسی» و «متغیر استوکاستیکی» هم به کار رفته است.






انواع

متغیر تصادفی گسسته
متغیر تصادفی پیوسته

با توجه به وضع شمارایی فضای نمونه‌ای S، متغیر می‌تواند گسسته یا پیوسته باشد. اگر S متناهی یا نامتناهی شمارا باشد متغیر تصادفی X گسسته و اگر ناشمارا باشد X پیوسته خواهد بود.

یک توزیع همچنین می تواند از نوع مختلط (mixed) باشد به این صورت که بخشی از آن مقادیر خاصی را بگیرد و بخش دیگر آن مقادیر روی یک بازه را بگیرد.





مقدار موثر
در ریاضیات، جذر متوسط مربع (به انگلیسی: root mean square یا quadratic mean) که با نام مقدار RMS و مقدار مؤثر (به انگلیسی: effective value) نیز شناخته می‌شود، معیاری آماری از اندازه کمیت متغیر است.
page1 - page2 - page3 - page4 - page5 - page7 - page8 - | 6:06 pm
نیمباز
نیمباز (Nimbuzz) نرم‌افزاری اختصاصی، چندسکویی و پیام‌رسان فوری برای تلفن‌های همراه، لوح‌رایانه‌ها (تبلت‌ها) و رایانه‌های شخصی است که ۱۵۰ میلیون کاربر در ۲۰۰ کشور دارد.


گفتگوی اینترنتی
گپیا چت در فارسی اصطلاحی به معنای گفتگوی اینترنتی است. اگرچه فرهنگستان زبان فارسی واژه گپ را معادل این واژه قرار داده‌است اما این واژه چندان مورد استقبال عمومی قرار نگرفته‌است. این واژه خلاصه شده Online chat از زبان انگلیسی است.






فن آوری
در ابتدا برای چت اینترنتی از پروتوکل آی آر سی استفاده می‌شد. اما اکنون از طریق سایر پروتکل‌ها نیز این کار امکان پذیر می باشد.


نرم‌افزارهای چت
برای چت نرم‌افزارهای زیادی مانند آی‌آرسی، یاهو مسنجر، ام اس ان مسنجر، گوگل تاک، اسکایپ و پیام‌رسان ویندوز لایو وجود دارد. نرم افزار های چت هم اکنون در موبایل هم افزایش چشم گیری داشته اند و کاربران خاص خود را دارند.



اینترنت

اینترنت (به انگلیسی: Internet) ( مخفف interconnected networks شبکه‌های به هم پیوسته ) را باید بزرگ‌ترین سامانه‌ای دانست که تاکنون به دست انسان طرّاحی، مهندسی و اجرا گردیده‌است. ریشهٔ این شبکهٔ عظیم جهانی به دههٔ ۱۹۶۰باز می گردد که سازمان‌های نظامی ایالات متّحدهٔ آمریکا برای انجام پروژه‌های تحقیقاتی برای ساخت شبکه‌ای مستحکم، توزیع شده و باتحمل خطا سرمایه گذاری نمودند. این پژوهش به همراه دوره‌ای از سرمایه گذاری شخصی بنیاد ملی علوم آمریکا برای ایجاد یک ستون فقرات جدید، سبب شد تا مشارکت‌های جهانی آغاز گردد و از اواسط دههٔ ۱۹۹۰، اینترنت به صورت یک شبکهٔ همگانی و جهان‌شمول در بیاید. وابسته شدن تمامی فعّالیت‌های بشر به اینترنت در مقیاسی بسیار عظیم و در زمانی چنین کوتاه، حکایت از آغاز یک دوران تاریخیِ نوین در عرصه‌های گوناگون علوم، فن‌ّآوری، و به خصوص در نحوه تفکّر انسان دارد. شواهد زیادی در دست است که از آنچه اینترنت برای بشر خواهد ساخت و خواهد کرد، تنها مقدار بسیار اندکی به واقعیت درآمده‌است.

اینترنت سامانه‌ای جهانی از شبکه‌های رایانه‌ای بهم پیوسته‌است که از پروتکلِ «مجموعه پروتکل اینترنت» برای ارتباط با یکدیگر استفاده می‌نمایند. به عبارت دیگر اینترنت، شبکه‌ی شبکه هاست که از میلیون‌ها شبکه خصوصی، عمومی، دانشگاهی، تجاری و دولتی در اندازه‌های محلی و کوچک تا جهانی و بسیار بزرگ تشکیل شده‌است که با آرایه وسیعی از فناوریهای الکترونیکی و نوری به هم متصل گشته‌اند. اینترنت در برگیرنده منابع اطلاعاتی و خدمات گسترده ایست که برجسته‌ترین آنها وب جهان‌گستر و رایانامه می‌باشند. سازمان‌ها، مراکز علمی و تحقیقاتی و موسسات متعدد، نیازمند دستیابی به شبکه اینترنت برای ایجاد یک وب‌گاه، دستیابی از راه دور وی‌پی‌ان، انجام تحقیقات و یا استفاده از سیستم رایانامه، می‌باشند. بسیاری از رسانه‌های ارتباطی سنتی مانند تلفن و تلویزیون نیز با استفاده از اینترنت تغییر شکل داده‌اند ویا مجدداً تعریف شده اند و خدماتی جدید همچون صدا روی پروتکل اینترنت و تلویزیون پروتکل اینترنت ظهور کردند. انتشار روزنامه نیز به صورت وب‌گاه، خوراک وب و وب‌نوشت تغییر شکل داده‌است. اینترنت اشکال جدیدی از تعامل بین انسانها را از طریق پیام‌رسانی فوری، تالار گفتگو و شبکه‌های اجتماعی بوجود آورده‌است.

در اینترنت هیچ نظارت مرکزی چه بر امور فنّی و چه بر سیاست‌های دسترسی و استفاده وجود ندارد. هر شبکه تشکیل دهنده اینترنت، استانداردهای خود را تدوین می‌کند. تنها استثنا در این مورد دو فضای نام اصلی اینترنت، نشانی پروتکل اینترنت و سامانه نام دامنه است که توسط سازمانی به نام آیکان مدیریت می‌شوند. وظیفه پی بندی و استاندارد سازی پروتکل‌های هسته‌ای اینترنت، IPv4 و IPv6 بر عهده گروه ویژه مهندسی اینترنت است که سازمانی بین‌المللی و غیرانتفاعی است و هر فردی می‌تواند در وظایفشان با آن مشارکت نماید.




واژه‌شناسی
در زبان انگلیسی واژه ی Intrnet هنگامی که به شبکه جهانی مبتنی بر پروتکل IP اطلاق می گردد، با حرف بزرگ در اول کلمه، نوشته می شود.
در رسانه ها فرهنگ عامه، گاه با اینترنت به صورت یک مقوله عمومی و مرسوم برخورد کرده و آن را با حرف تعریف و به صورت حروف کوچک می نگارند(the internet)
در برخی منابع بزرگ نوشتن حرف اول را به دلیل اسم بودن آن جایز می دانند نه برای صفت بودن این واژه.
واژهٔ لاتین the Internet چنانچه به شبکهٔ جهانی اینترنت اشاره کند، اسم خاص است و حرف اوّلش با حروف بزرگ آغاز می‌شود(I). اگر حرف اوّل آن کوچک باشد می‌تواند به عنوان شکل کوچک شده کلمه Internetwork برداشت شود که به معنی میان شبکه است. واژه "ابر" نیز به صورت استعاری، به ویژه در ادبیات رایانش ابری و نرم‌افزار به عنوان سرویس، برای اشاره به اینترنت به کار می‌رود.



اینترنت در برابر وب
غالباً در گفتگوهای روزمره از دو واژهٔ "وب" و "اینترنت"، به اشتباه، بدون تمایز زیادی استفاده می‌شود، امااین دو واژه معانی متفاوتی دارند. اینترنت یک سامانه ارتباطی جهانی برای داده هاست، زیرساخت‌های نرم‌افزاری و سخت‌افزاری است که رایانه‌ها در سراسر جهان به یک‌دیگر متصل می‌سازد. در مقابل، وب یکی از خدماتی (سرویس)است که بر روی اینترنت ارائه می‌شود و برای ارتباط از شبکه اینترنت بهره می‌جوید. وب مجموعه ای از نوشته های به هم پیوسته(web page) است که به کمک ابرپیوندها و آدرس جهانی(URL) به یکدیگر پیوند خورده‌اند.
وب شامل سرویس های دیگر مانند رایانامه، انتقال فایل(پروتکل اف‌تی‌پی)، گروه خبری و بازی آنلاین است.
خدمات(سرویس) های یاد شده بر روی شبکه های مستقل و جدا از اینترنت نیز در دسترس هستند. وب به عنوان لایه ای در بالای اینترنت قرار گرفته و سطح بالاتری نسبت به آن قرار دارد.



تاریخچه
افتتاح پروژه اسپوتنیک توسط اتحاد جماهیر شوروی سوسیالیستی زنگ خطر را برای ایالات متحده به صدا درآورد تا با تأسیس آرپا یا موسسه پروژه‌های تحقیقاتی پیشرفته در سال ۱۹۵۸ (میلادی) پیشروی در زمینه فناوری را بازیابد.

آرپا اداره فناوری پردازش اطلاعات (IPTO) را تاسیس نمود تا پروژه SAGE راکه برای اولین بار سامانه‌های رادار سراسر کشور را با هم شبکه کرده بود پیشتر برد. هدف IPTO دست یافتن به راههایی برای پاسخ به نگرانی ارتش امریکا در باره قابلیت مقاومت شیکه‌های ارتباطیشان را پاسخ دهد، و به عنوان اولین اقدام رایانه هایشان را در پنتاگون، کوه چاین و دفتر مرکزی فرماندهی راهبردی هوایی (SAC) را به یکدیگر متصل سازد.جی.سی.آر لیکلایدر که از ترویج کنندگان شبکه جهانی بود به مدیریت IPTO رسید.لیکلایدر در سال ۱۹۵۰ (میلادی) پس از علاقه‌مند شدن به فناوری اطلاعات از آزمایشگاه روانشناسی صدا در دانشگاه هاروارد به ام آی تی رفت. در ام آی تی او در کمیته‌ای مشغول به خدمت شد که آزمایشگاه لینکلن را تاسیس کرد و بر روی پروژه SAGE کار می‌کرد. در سال ۱۹۵۷ (میلادی) او نایب رئیس شرکت بی بی ان (BBN) شد. در آنجا بود که اولین محصول PDP-۱ را خرید و نخستین نمایش عمومی اشتراک زمانی را هدایت نمود.
پروفسورلئونارد کلینراک در کنار یکی از اولین پردازشگرهای پیغام واسط (به انگلیسی: Interface Message Processor) در دانشگاه کالیفرنیا، لس‌آنجلس

در IPTO جانشین لیکلایدر ایوان ساترلند، در سال ۱۹۶۵ (میلادی)، لارنس رابرتس را بر آن گماشت که پروژه‌ای را برای ایجاد یک شبکه آغاز نماید و رابرتس پایه این فناوری را کار پل باران نهاد
.

پل باران مطالعه جامعی را برای نیروی هوایی ایالات متحده آمریکا منتشر کرده بود که در آن پیشنهاد داده بود که برای دستیابی به استحکام و مقاومت در برابر حوادث از راه‌گزینی بسته کوچک استفاده شود. رابرتس در آزمایشگاه لینکلن ام آی تی کار کرده بود که هدف اولیه از تاسیس آن، پروژه SAGE بود. لئونارد کلینراک استاد دانشگاه کالیفرنیا تئوریهای زیربنایی شبکه‌های بسته را در سال ۱۹۶۲ (میلادی) و مسیریابی سلسله مراتبی را در سال ۱۹۶۷ (میلادی) ارائه کرده بود، مفاهیمی که زمینه ساز گسترش اینترنت به شکل امروزی آن شدند.

جانشین ساترلند، رابرت تیلور، رابرتس را قانع نمود که موفقیت‌های اولیه‌اش در زمینه راه‌گزینی بسته کوچک را گسترش دهد و بیاید و دانشمند ارشد IPTO شود.در آنجا رابرتس گزارشی با نام "شبکه‌های رایانه‌ای منابع مشترک" به تیلور داد، که در ژوئیه ۱۹۶۸ (میلادی) م.رد تایید او قرار گرفت و زمینه ساز آغاز کار آرپانت در سال بعد شد. پس از کار فراوان، سرانجام در ۲۹ اکتبر ۱۹۶۹ دو گره اول آنچه که بعدها آرپانت شد به هم متصل شدند.این اتصال بین مرکز سنجش شبکه کلینراک در دانشکده مهندسی و علوم کاربردی UCLA و سامانه NLS داگلاس انگلبرت در موسسه تحقیقاتی SRI International در پارک منلو در کالیفرنیا برقرار شد. سومین مکان در آرپانت مرکز ریاضیات تعاملی Culler-Fried در دانشگاه کالیفرنیا، سانتا باربارا بود و چهارمی دپارتمان گرافیک دانشگاه یوتا بود. تا پایان سال ۱۹۷۹ (میلادی) پانزده مکان مختلف به آرپانت جوان پیوسته بودند که پیام آور رشدی سریع بود. آرپانت تنها یکی از اجداد اینترنت امروزی بود. در تلاشی جداگانه، دونالد دیویز نیز، در آزمایشگاه ملی فیزیک انگلیس مفهوم راه‌گزینی بسته کوچک را کشف کرده بود. اونخستین بار آن را در ۱۹۶۵ (میلادی) مطرح نمود. کلمات بسته و راهگزینی بسته در واقع توسط او ابداع شدند و بعدها توسط استانداردها پذیرفته و به کار گرفته شدند. دیویز همچنین یک شبکه راهگزینی بسته به نام Mark I در سال ۱۹۷۰ (میلادی) درانگلستان ساخته بود
.به دنبال نمایش موفق راهگزینی بسته در آرپانت(ARPANET)؛ در سال ۱۹۷۸، اداره پست بریتانیا، Telenet، DATAPACوTRANSPAC با یکدیگر همکاری را برای بوجود آوردن نخستین سرویس شبکه راهگزینی بسته خود آغاز نمودند. در بریتانیا این شبکه به نام سرویس بین‌المللی راهگزینی بسته (به انگلیسی: International Packet Switched Service) خوانده می‌شد. مجموعه شبکه‌های X.۲۵ از اروپا و آمریکا گسترش یافت و تا سال ۱۹۸۱ کانادا، هنگ کنگ و استرالیا ر در بر گرفته بود.استانداردهای راهگزینی بسته X.۲۵ را "کمیته مشاوره بین‌المللی تلگراف و تلفن(CCITT)" - که امروزه به نام ITU-T خوانده می‌شود- حول و حوش سال ۱۹۷۶ تدوین نمود. X.۲۵ از پروتکلهای TCP/IP مستقل بود. این پروتکلها حاصل کار تجربی DARPA در آرپانت، شبکه رادیویی بسته و شبکه ماهواره‌ای بسته بودند.

آرپانت اولیه بر روی برنامه کنترل شبکه(NCP) (به انگلیسی: Network Control Program) کارمی کرد، استانداردی که در دسامبر ۱۹۷۰ توسط تیمی به نام "گروه کاری شبکه(NWG)" به مدیریت استیو کراکر (به انگلیسی: Steve Crocker) طراحی و پیاده سازی شد. برای پاسخگویی به رشد سریع شبکه که مرتباً مکانهای بیشتری بدان متصل می‌شد، وینتون سرف (به انگلیسی: Vinton Cerf) و باب کان (به انگلیسی: Bob Kahn) اولین توصیف پروتکلهای TCP را که امروزه به گستردگی استفاده می‌شوند در خلال سال ۱۹۷۳ ارائه دادند و در مه ۱۹۷۴ مقاله‌ای در این باب منتشر نمودند. به کاربردن واژه اینترنت برای توصیف یک شبکه TCP/IP یکتای جهانی از دسامبر ۱۹۷۴ با انتشار RFC ۶۷۵ آغاز شد.این RFC اولین توصیف کامل مشخصات TCP بود که توسط وینتون سرف، یوگن دالال و کارل سانشاین در آن زمان در دانشکاه استانفورد نوشته شد. در خلال نه سال یعدی کار تا آنجا پیش رفت که پروتکلها تصحیح شدندو بر روی بسیاری از سیستم‌های عامل پیاده سازی شدند.اولین شبکه برپایه بسته پروتکل اینترنت(TCP/IP) از اول ژانویه ۱۹۸۳ وقتی که همه ایستگاههای متصل به آرپا پروتکلهای قدیمی NCP را با TCP/IP جایگزین کردند، شروع به کار نمود. در سال ۱۹۸۵ بنیاد ملی علوم آمریکا(NFS) ماموریت ساخت NFSNET- یک ستون فقرات (Network Backbone) دانشگاهی با سرعت ۵۶ کیلوبیت بر ثانیه(Kbps) - با استفاده از رایانه‌های "مسیریاب فازبال" (به انگلیسی: Fuzzball router) را به مخترع این رایانه‌ها، دیوید ال. میلز (به انگلیسی: David L. Mills) سپرد. یک سال بعد NFS تبدیل به شبکه پرسرعت تر ۱٫۵ مگابیت بر ثانیه ( Mbps) را نیز پشتیبانی می‌کرد. دنیس جنینگ، مسئول برنامه ابرکامپیدتردرNFS تصمیمی کلیدی در مورد استفاده از پروتکلهای TCP/IP ارائه شده توسط DARPA گرفت. گشایش شبکه به دنیای تجاری در سال ۱۹۸۸ آغاز شد.شورای شبکه بندی فدرال ایالات متحده در آن سال با اتصال NFSNET به سامانه تجاری پست MCI موافقت نمودو این اتصال در تابستان ۱۹۸۹ برقرارشد. سایر خدمات پست الکترونیکی تجاری(مانند OnTyme,Compuserve,Telemail ) نیز به زودی متصل شدند. در آن سال سه ارائه دهنده سرویس اینترنت(ISP) بوجود آمدند : UUNET, PSINet, CERFNET . شبکه‌های جدای مهمی که دروازه‌هایی به سوی اینترنت (که خود بعداً جزئی از آن شدند)می گشودند عبارت بودند از : یوزنت, بیت‌نت بسیاری از شبکه‌های متنوع تجاری و آموزشی دیگر همچون Telenet, Tymnet, Compuserve و JANET نیز به اینترنت در حال رشد پیوستند. Telenet - که بعدها Sprintnet نامیده شد - یک شبکه رایانه‌ای ملی خصوصی بود که از ۱۹۷۰ کار خود را آغاز کرده بود و امکان دسترسی با شماره‌گیری (به انگلیسی: Dial-up Access) را به صورت رایگان در شهرهایی در سراسر امریکا فراهم ساخته بود.این شبکه سرانجام در دهه ۱۹۸۰، با محبوبیت روزافزون TCP/IP به سایرین متصل شد. فابلیت TCP/IP برای کار با هر نوع شبکه ارتباطی از پیش موجود، سبب رشد آسانتر آن می‌گشت؛ اگر چه که رشد سریع اینترنت در وهله اول ناشی از در دسترس بودن مسبریابهای استاندارد تجاری از طرف بسیاری از شرکتها، در دسترس بودن تجهیزات تجاری اترنت(به انگلیسی: Ethernet) برای ساخت شبکه‌های محلی و پیاده سازیهای گسترده و استانداردسازی TCP/IP در یونیکس]](به انگلیسی: Unix) و بسیاری سیستم عاملهای دیگر بود.
این رایانه نکست توسط تیم برنرز لی در سرن به عنوان اولین وب سرور دنیا استفاده شد.

اگرچه بسیاری از کاربردها و رهنمودهایی که اینترنت را ممکن ساخت به مدت تقریباً دو دهه وجو داشتند، امااین شبکه تا دهه ۱۹۹۰ هنوز چهره‌ای همگانی نداشت. در ششم آگوست ۱۹۹۱، سرن - سازمان اروپایی پژوهش در باره ذرات - پروژه وب جهان گستر(World Wide Web) را به اطلاع عموم رساند. وب توسط دانشمندی انگلیسی به نام تیم برنرز لی(به انگلیسی: Sir Tim Berners-Lee) در سال ۱۹۸۹ اختراع شد.یکی از مرورگرهای وب محبوب اولیه ViolaWWW بود که از روی هایپرکارت الگوبرداری شده بود و از سامانه پنجره ایکس(به انگلیسی: X Window System) استفاده می‌کرد. سرانجام این مرورگر جای خود را در محبوبیت به مرورگرموزاییک (به انگلیسی: Mosaic) داد. در سال ۱۹۹۳ مرکزملی کاربردهای ابررایانش امریکا (به انگلیسی: National Center for Supercomputing Applications) دردانشگاه ایلینوی اولین نسخه از موزاییک را منتشر کرد و تا اواخر سال ۱۹۹۴ علاقه عمومی به اینترنتی که پیش از این آموزشی و تخصصی بود، گسترش فراوانی یافته بود. در سال ۱۹۹۶ استفاده از واژه اینترنت معمول شد و مجازا برای اشاره به وب هم استفاده شد. در همین هنگام، در گذر این دهه، اینترنت بسیاری از شبکه‌های رایانه‌ای عمومی از پیش موجود را در خود جا داد(اگر چه برخی مثل FidoNet همپنان جداماندند). آنچنانکه تخمین زده شده‌است، در دهه ۹۰ در هرسال اینترنت رشدی صددرصدی نسبت به سال قبل خود داشته‌است و در سالهای ۱۹۹۶و۱۹۹۷ نیز دوره‌های کوتاهی از رشد انفجاری داشته‌است
.این میزان رشد به خصوصیت عدم کنترل مرکزی اینترنت که امکان رشد اندامی شبکه را فراهم می‌سازد نسبت داده‌اند و همچنین به ماهیت بازوغیراختصاصی پروتکلهای اینترنت که امکان برقراری سازگاری و همکاری میان فروشندگان مختلف و عدم توانایی یک شرکت برای اعمال کنترل بیش از حد بر روی شبکه را سبب می‌شود.جمعیت تخمینی کاربران اینترنت مطابق آمار سی ام ژوئیه ۲۰۰۹ ، ۱٫۶۷ میلیارد نفراست.


حاکمیت
اینترنت یک شبکه جهانی توزیع شده‌است که شبکه‌های خودمختار به انتخاب خود به آن پیوسته‌اند و بدون هیچ بدنهٔ مرکزی فرماندهی کار می‌کند. اما برای حفظ هم‌کنش‌پذیری آن جنبه‌های فنی و سیاستهای زیر ساخت پایهٔ آن و همچنین فضاهای نام اصلی آن توسط بنگاه اینترنتی نامها و شماره‌های تخصیص داده شده(به انگلیسی: Internet Corporation for Assigned Names and Numbers) (ICANN) اداره می‌شوند که مقر اصلی آن درمارینا دل ری، کالیفرنیا قرار دارد. ICANN مرجعی است که به هماهنگ سازی تخصیص شناسه‌های یکتا برای استفاده در اینترنت می‌پردازد.این شناسه‌ها شامل نامهای دامنه، نشانی‌های IP، شماره پورت‌های برنامه‌ها در لایه انتقال و بسیاری از پارامترهای دیگر می‌شود. فضاهای نام یکتای جهانی که در آن نام‌ها و شماره‌ها به صورتی تخصیص داده می‌شوند که مقادیر یکتا باشند، برای دسترسی جهانی به اینترنت ضروری هستند. ICANN توسط یک هیات مدیره بین‌المللی که از بین انجمنهای فنی، آکادمیک و سایر انجمنهای غبر تجاری دیگراینترنت انتخاب می‌شود.دولت امریکا همچنان نقش اولیه را در تایید تغییرات در حوزه ریشه سامانه نام دامنه (به انگلیسی: DNS root zone) که قلب سامانه نام دامنه(DNS) را تشکیل می‌دهد. نقش ICANN در هماهنگی تخصیص شناسه‌های یکتا، آن را به عنوان تنها پیکره هماهنگ سازی در شبکه جهانی اینترنت متمایز می‌سازد.در ۱۶ نوامبر ۲۰۰۵ نشست جهانی در باره جامعه اطلاعاتی که در تونس بر‌گزار شد انجمن حاکمیت اینترنت(IGF) را تاسیس کردند تا به مسایل مرتبط با اینترنت بپردازد.
ساعت : 6:06 pm | نویسنده : admin | مطلب بعدی
مای نیمباز | next page | next page