x
۲۷ / اسفند / ۱۳۹۳ ۱۶:۴۳

12 دستاورد برای پایان جهان کدامند!

دانشمندان مدعی هستند که سناریوهایی مانند غلبه رایانه‌های هوشمند بر دنیا یا ظهور ویروس غیرقابل درمانی که کل گونه انسانی را از بین می‌برد، می‌تواند به پایان جهان بینجامد.

کد خبر: ۷۸۴۵۳
آرین موتور

این‌ها تنها دو مورد از 12 سناریویی است که می‌تواند به پایان جهان منجر شود. تیمی از محققان موسسه آینده بشریت دانشگاه آکسفورد و بنیاد چالش‌های جهانی به ارائه اولین ارزیابی علمی جدی از خطرات پایان‌بخش جهان پرداخته‌اند که انسان با آن‌ها مواجه است. در این میان، چند سناریو مانند احتمال برخورد سیارک با زمین یا انفجار یک آتشفشان، غیر قابل کنترل هستند، اما سایر گزینه‌ها بیشتر توسط پیشرفت‌های بشری ظاهر خواهند شد. برخی از این پیشرفت‌ها بویژه از نوع فناوری، از پتانسیل سوددهی زیادی برای انسان‌ها برخوردارند، اما همچنین می‌توانند به نابودی نوع بشر منجر شوند. بیماری همه‌گیر جهانی یک بیماری آخرالزمانی ممکن است مانند ابولا غیرقابل درمان، مانند هاری تقریبا همیشه مرگبار و مانند سرماخوردگی بسیار واگیردار بوده یا مانند اچ‌آی‌وی از دوره نهفتگی طولانی برخوردار باشد. به گزارش اقتصاد آنلاین به نقل از ایسنا، اگر این ویژگی‌های ویرانگر همه در یک پاتوژن رخ بدهند - مانند آنفلوانزا که می‌تواند ویژگی‌های چند ویروس را با هم ترکیب کند - آمار تلفات بی‌نهایت خواهد بود. در حالی که منابع چشمگیری به تحقیقات پزشکی و مبارزه با بیماری‌ها اختصاص یافته، حمل‌ونقل مدرن و جمعیت متراکم منجر به انتشار سریعتر عفونت‌ها می‌شود. ابرآتشفشان خطر ابرآتشفشانی که بتواند فورانی 1000 برابر بزرگتر از حد عادی را تولید کند، میزان ذرات معلق و غباری است که به جو ارسال می‌شود. این غبار می‌تواند پرتوهای خورشید را جذب کرده و باعث فوران یک آتشفشان زمستانی با آثار مشابه برخورد یک سیارک یا جنگ اتمی شود. با فناوری‌های کنونی، کار بسیار کمی برای جلوگیری از آسیب‌های احتمالی می‌توان انجام داد. هوش مصنوعی شاید مورد بحث‌ترین تهدید آخرالزمانی در حال حاضر، تولید دستگاهها و نرم‌افزارهای با هوش انسانی است؛ چنین هوشی به سختی قابل کنترل خواهد بود و شاید بتواند خود را ارتقا دهد. همچنین این دستگاهها اگر به این نقطه برسند که بشر فواید خود را از دست داده است، می‌توانند جهانی بدون انسان بنا کنند. اما هوش مصنوعی با این قابلیت می‌تواند با سایر خطرها مبارزه کرده و پتانسیل خوبی برای کمک به بشریت داشته باشد. در حال حاضر، هیچ کس نمی‌داند که آیا هوش مصنوعی می‌تواند خطرساز باشد یا خیر، با اینحال دانشمندان احتمالات زیادی را برای آن در نظر گرفته‌اند. تغییرات شدید آب‌وهوایی دانشمندان در حال حاضر پیش‌بینی کرده‌اند که تغییرات آب‌وهوایی ناشی از فعالیت انسان که باعث افزایش دی‌اکسیدکربن در جو شده، می‌تواند به معنی افزایش دمای جهانی با میانگین چهار درجه سانتیگراد باشد. اما این خطر وجود دارد که گرم‌شدن جهانی می‌تواند بسیار شدیدتر از برآوردهای پیشنهادی و حتی تا شش درجه باشد. بر اساس این ارزیابی، این اثر حتی در کشورهای فقیرتر می‌تواند قویتر بوده و منجر به غیرقابل سکونت شدن آنها و در نتیجه مرگ‌های دسته‌جمعی، قحطی و مهاجرت جمعی شود. زیست‌شناسی مصنوعی مهندسی ژنتیک ابرموجودات می‌تواند برای بشریت سودمند باشد اما آزادسازی ابرموجوداتی که انسان‌ها یا بخشهای حیاتی اکوسیستم را هدف قرار می‌دهند، می‌تواند منجر به فاجعه شود. این امر می‌تواند بطور تصادفی و ناخواسته از آزمایشگاه و یا حتی عامدانه برای آغاز یک جنگ زیستی یا بیوتروریسم باشد. تاثیر این امر می‌تواند بسیار بدتر از هرگونه بیماری همه‌گیر طبیعی باشد. برخورد سیارک این خطر ممکن است بنظر تخیلی بیاید، اما برخورد یک سیارک بزرگ می‌تواند به پایان جهان منجر شود. برخوردهای سیارک‌های بزرگ با مقیاس‌های پنج کیلومتر یا بزرگتر،‌ هر 20 میلیون سال یکبار رخ داده و می‌تواند دارای انرژی 100 هزار برابر بزرگتر بمب‌های منفجر شده تاکنون باشد. یک ضربه زمینی می‌تواند منطقه‌ای به وسعت کشور هلند را از بین ببرد. با برخورد سیارک، یکی دیگر از آثار مخرب می‌تواند ابرهای گرد و غباری باشد که به جو فرستاده شده و بر آب‌وهوا و تامین مواد غذایی تاثیر گذاشته و در نتیجه به ایجاد بی ثباتی سیاسی منجر شود. فروپاشی زیست‌محیطی تجزیه کامل اکوسیستم جهانی می‌تواند به انقراض جمعی منجر شود. احتمال این سناریو بر میزان وابستگی انسان‌ها به اکوسیستم تکیه دارد؛ برای مثال برخی سبک‌های زندگی در صورتی که به این شبکه وابسته نباشند، ممکن است پایدار بمانند. احتمال دستیابی عملی به این امر در مقیاس وسیع بویژه در زمان یک فروپاشی، خود چالشی بزرگ بوده و مطلوب بودن آن نیز یک سوال اخلاقی است. نانوفناوری ساخت‌و‌ساز بسیار دقیق بر پایه اتم می‌تواند منجر به تولید موادی با ویژگیهای جدید مانند انعطاف‌پذیری بالا یا هوشمند بودن شود که بسیار سودمند هستند. این فناوری‌های تولید می‌توانند همچنین مشکلات بسیار بزرگی از جمله کاهش منابع طبیعی، آلودگی، تغییرات آب‌وهوایی، آب تمیز و حتی فقر ایجاد کنند. از دیگر آثار احتمالی آن می‌توان به ایجاد زرادخانه‌های بزرگ از سلاح‌های متعارف یا جدید اشاره کرد که با تولید در مقیاس اتمی ممکن خواهند شد. جنگ هسته‌ای ترس از آغاز یک جنگ هسته‌ای بین روسیه و آمریکا برای دهه‌های متوالی جامعه جهانی را به خود مشغول کرده است. این تهدید ممکن است کاهش یافته باشد، اما احتمال یک نزاع هسته‌ای تصادفی یا عامدانه هنوز کم نشده و برخی برآوردها نشان می‌دهد که احتمال این خطر در قرن آینده حدود 10 درصد است. اینکه این جنگ از تاثیرات زیادی برخوردار باشد، بستگی به این امر دارد که آیا به یک زمستان هسته‌ای - ایجاد ابری از دود در بالای جو که خورشید را مسدود کرده، دما را تا حد انجماد کاهش داده و احتمالا لایه ازن را از بین می‌برد - منجر خواهد شد یا خیر. برای عملی شدن این اثر، بمب‌ها باید طوری منفجر شوند که بتوانند خاک را تا جو بالا ببرند. این اثر می‌تواند به فروپاشی عرضه مواد غذایی در جهان، ایجاد گرسنگی جهانی و فروپاشی ایالات منجر شود. حکومت بد محلی این تهدید به دو دسته اصلی از بلایای دولت - عدم حل مشکلات عمده قابل حل و بطور فعالانه عامل نتایج بدتر شدن - اشاره دارد؛ یک مثال از مورد اول، عدم کاهش فقر مطلق بوده و مثال دومی، ساخت یک حکومت تمامیت‌خواه جهانی است. تغییرات در فناوری، سیاست و جامعه می‌تواند به ایجاد دولت بهتر منجر شود، اما همچنین می‌تواند نتایج بدتری برای بشریت به ارمغان بیاورد. فروپاشی سیستم جهانی این اصطلاح گسترده به فروپاشی اقتصادی و یا اجتماعی در مقیاس جهانی اشاره دارد که شامل ناآرامی‌های مدنی و فروپاشی قانون و نظم است که ادامه زندگی انسان بر روی زمین را غیرممکن می‌سازد. عوامل ناشناخته بسیاری برای پیش‌بینی محتمل بودن این نتایج وجود دارد اما چنین اثراتی در سیستم‌های متصل پیچیده مانند محیط زیست و امور مالی مشاهده شده است. امکان فروپاشی زمانی که چندین شبکه به یکدیگر وابسته‌اند، بسیار حادتر خواهد بود. عواقب ناشناخته یک مقوله غالب یا چتر، به نمایش همه مجهولات ناشناخته - خطراتی که به آن‌ها فکر نشده یا بسیار بعید به نظر می‌رسند - می‌پردازد. این موارد همگی با هم مجموعه‌ای از تهدیدات پایان‌بخش جهان هستند.

نوبیتکس
ارسال نظرات
x