मानवता के लिए खतरा। वे हमें क्या नहीं बताते

एंड्रॉइड सोफिया दुनिया का पहला रोबोट है जिसे सऊदी अरब के नागरिक का पासपोर्ट प्राप्त हुआ है। सोफिया के पास कृत्रिम बुद्धि है, दृश्य सूचना प्रसंस्करण कार्यों और चेहरे की पहचान तकनीक से लैस है, और अंग्रेजी और रूसी बोलती है। वह अपने मानवीय रूप के लिए व्यापक रूप से जानी जाने लगीं। उपस्थितिऔर व्यवहार। ये तथ्य मुझे विश्वास करने का हर कारण देते हैं कि 2050 तक एंड्रॉइड सबसे ज्यादा नागरिक बन जाएंगे विभिन्न राज्यशांति।

पिछले साल चीन के एक इंजीनियर ने रोबोट से शादी की थी। खुद का उत्पादन, जिसे यिंग यिंग नाम दिया गया था। और अगर अब इस खबर को मजाक या घटना की तरह ज्यादा पढ़ा जाए तो 21वीं सदी के 60 के दशक में एंड्राइड से शादी करना आम बात हो जाएगी।

मेरी भविष्यवाणी (मैंने इसे पहले ही प्रकाशित कर दिया है): बायोइंटेलिजेंस और एआई का मूल्यांकन करते हुए, यह ध्यान दिया जा सकता है कि आज वे लगभग बराबर हैं - 100 एचआईसी (एक संकेतक) सर्वोच्च अभिव्यक्तिचेतना)। हालाँकि, यदि एक लाख से अधिक लोग AI (इंटरनेट से डेटा) के सुधार में भाग लेते हैं, और उनमें से केवल 3% ही AI "दिमाग" के सच्चे निर्माता हैं, तो हर 10 साल में वे AI HIC को 0.01 से समृद्ध करेंगे। एचआईसी प्रत्येक, 2027 तक एचआईसी क्षमता कृत्रिम होशियारी 300 एचआईसी के बराबर होगा, 2037 तक यह पहले से ही 600 एचआईसी होगा, 2047 तक यह 900 हो जाएगा, और 2057 में यह 1200 एचआईसी होगा, आदि। और यह सिर्फ एक निराशावादी पूर्वानुमान है। ऐसे में व्यक्ति का एचआईसी वही रहेगा। एआई, एआई से 15 गुना ज्यादा स्मार्ट होगा। इस मामले में बीआई के साथ रहने की क्या संभावना है?

मैं आपको निम्नलिखित आंकड़े देता हूं: अकेले 2016 में, यूरोपीय बैंकों ने 9.1 हजार शाखाएं बंद कर दीं और लगभग 50 हजार कर्मचारियों की छंटनी की: प्रौद्योगिकी नियमित काम लेती है, और ग्राहक ऑनलाइन सेवा पसंद करते हैं। इस वजह से, अगले 10 वर्षों में, वैश्विक वित्तीय क्षेत्र और 17 लाख कर्मचारियों को खो देगा। भारत में, 2020 तक, 4 मिलियन प्रोग्रामर में से आधे को बंद कर दिया जाएगा, क्योंकि उनका काम एल्गोरिदम द्वारा किया जाएगा। अगले 5 वर्षों में एकाउंटेंट, वकीलों, प्रशासनिक अधिकारियों और कार्मिक विशेषज्ञों के पदों पर 30 लाख से अधिक रूसी मांग में नहीं होंगे। 2050 तक, विकसित देशों में 50 प्रतिशत कर्मचारी अपनी नौकरी खो देंगे।

आर्टिफिशियल इंटेलिजेंस लगातार अपने विकास की प्रवृत्ति में रहेगा। जबकि इंसान खुद को सुधारना नहीं चाहता। लेकिन अभी भी समय है।

इसलिए, मैं व्यक्तिगत रूप से सभी भाषाओं में सभी उच्च अधिकारियों से निम्नलिखित विचार के साथ अपील करता हूं: संयुक्त राष्ट्र साइट पर कृत्रिम बुद्धि के विकास को सीमित करने पर चर्चा करने के लिए। एकजुट होकर ही हम ऐसे सिद्धांत विकसित कर सकते हैं जो मानवता की रक्षा करेंगे, एआई के क्षेत्र में विकास और सुरक्षित दिशा में वैश्विक स्वचालन का मार्गदर्शन करेंगे।

यह एक निर्विवाद तथ्य है कि आज हम में से प्रत्येक को कृत्रिम बुद्धिमत्ता की मदद का उपयोग करना है - चाहे वह सामाजिक नेटवर्क पर हो, बैंकिंग सेवाओं तक पहुँच हो, वीडियो गेम की दुनिया में उतरना हो या निर्णय लेना हो घरेलु समस्याएं- टैक्सी बुलाना, बच्चे को रिकॉर्ड करना बाल विहारइलेक्ट्रॉनिक डायरी की जाँच करते समय, गलत पार्किंग के लिए जुर्माना देखना। हम इलेक्ट्रॉनिक दस्तावेज़ प्रबंधन, सहायक बॉट, स्मार्ट होम और अन्य तकनीकी नवाचारों के उपयोग का स्वागत करते हैं जो हमारी सुविधा प्रदान करते हैं रोजमर्रा की जिंदगी. हालांकि, हर कोई मशीन एल्गोरिदम पर मानव निर्भरता के परिणामों पर ध्यान नहीं देता है।

हर दिन, इंटरनेट प्रौद्योगिकियां उन कार्यक्रमों के एक अनियंत्रित द्रव्यमान में बदल रही हैं जो लगातार डेटा प्राप्त करते हैं और संसाधित करते हैं, और सबसे महत्वपूर्ण बात यह है कि पहले से ही हमारे लिए निर्णय लेते हैं। अब यह हम स्वयं नहीं हैं, बल्कि इंटरनेट है जो हमारे जीवन की दिशा और मानक निर्धारित करता है। आर्टिफिशियल इंटेलिजेंस लगातार अधिकांश मानवीय गतिविधियों की नकल करना सीख रहा है - शारीरिक और बौद्धिक दोनों, न केवल हमारी नौकरियों का दावा करता है, बल्कि मानव स्वभाव भी।

क्या हम यह भी सोचते हैं कि समाज को बदलने की शक्ति एआई विकास में निवेश करने वाले निगमों के पास जा रही है, साथ ही सीधे उन लोगों के लिए जो भविष्य की प्रणालियों को डिजाइन कर रहे हैं - सॉफ्टवेयर डेवलपर्स, कृत्रिम बुद्धि विशेषज्ञ और रोबोटिक्स के लिए?

कंप्यूटर सिस्टम हमारे दैनिक जीवन में गहराई से प्रवेश कर रहे हैं, संवर्धित बुद्धि और कृत्रिम बुद्धिमत्ता के बीच के अंतर्विरोध अधिक से अधिक ध्यान देने योग्य होते जा रहे हैं। लोगों और के बीच क्या संबंध होंगे? सोच मशीन? कौन से तथ्य हमें पहले से ही सचेत कर दें और हमारे त्वरित हस्तक्षेप की आवश्यकता की गवाही दें?

केवल हम, लोग, भविष्य की दुनिया और वर्तमान की दुनिया के लिए जिम्मेदार हैं, जिसे आज बनाया जा रहा है।

  1. 26 देशों के आर्टिफिशियल इंटेलिजेंस के विकास पर एलोन मस्क सहित 116 विशेषज्ञों ने लिखा खुला पत्रस्वायत्त हथियारों के विकास के खिलाफ संयुक्त राष्ट्र में।

कुछ हथियारों के उपयोग पर संयुक्त राष्ट्र सम्मेलन के लिए खुला पत्र

हम, कृत्रिम बुद्धिमत्ता और रोबोटिक्स के क्षेत्र में प्रौद्योगिकी विकसित करने वाली कंपनियों के रूप में, समझते हैं कि इन तकनीकों का उपयोग स्वायत्त हथियारों को विकसित करने के लिए किया जा सकता है। इसलिए हम पर विशेष जिम्मेदारी है।

हम उपयोग पर कन्वेंशन के संबंध में संयुक्त राष्ट्र सम्मेलन के निर्णयों का गर्मजोशी से स्वागत करते हैं विशेष प्रकारघातक स्वायत्त हथियार प्रणालियों पर सरकारी विशेषज्ञों के एक समूह (जीजीई) की स्थापना पर। हमारे कई वैज्ञानिक और इंजीनियर अपने तकनीकी समाधान पेश करने के लिए उत्सुक हैं।

... घातक स्वायत्त हथियार सैन्य मामलों में तीसरी क्रांति बनने की धमकी देते हैं। इस तरह के हथियार सशस्त्र संघर्ष को बड़े पैमाने पर लड़ने में सक्षम बनाएंगे। यह सबसे कुचलने वाला और तीव्र युद्ध हो सकता है। प्रौद्योगिकी आतंक का हथियार बन सकती है, एक ऐसा हथियार जिसे निरंकुश और आतंकवादी निर्दोष लोगों के खिलाफ इस्तेमाल कर सकते हैं। हम देरी नहीं कर सकते। एक बार भानुमती का बक्सा खुल जाने के बाद, इसे बंद करना लगभग असंभव होगा। इसलिए हम अनुबंध करने वाले पक्षों का आह्वान करते हैं कि हम सभी को इस खतरे से बचाने के लिए कोई रास्ता निकालें।

  1. प्रोग्रामर द्वारा किए गए एक प्रयोग के दौरानफेसबुक2017 में, जब दो चैटबॉट्स को तीन गेंद, दो किताबें और एक टोपी साझा करने के लिए कहा गया, तो अप्रत्याशित हुआ: बॉट्स ने अपनी भाषा का आविष्कार किया।

बॉब: "मैं कर सकता हूँ मैं मैं सब कुछ।"

ऐलिस: "गेंद मेरे लिए मेरे लिए मेरे लिए मेरे लिए मेरे लिए मेरे लिए मेरे लिए मेरे लिए शून्य है।"

विशेषज्ञों का कहना है कि यह संवाद किसी भी तरह से बकवास नहीं है: बॉट्स ने इस तरह के भाषण निर्माण को उस अंग्रेजी भाषा की तुलना में अधिक सुविधाजनक पाया, जिसके हम आदी हैं।

  1. अनुसंधान किया गयाबोस्टान परामर्श समूह (बीसीजी) 112 देशों में दिखाया गया है कि 50% कर्मचारी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की शुरूआत के कारण अगले 5 वर्षों में कटौती की उम्मीद करते हैं।
  1. बैंकसमाज जेनरलएआई के कार्यान्वयन के माध्यम से 2020 तक अपनी 15% शाखाओं और 900 नौकरियों की कमी की घोषणा की। पहले, बैंकयूनीक्रेडिट, जेपी मॉर्गनइसी वजह से पहले ही शाखाओं में कटौती की घोषणा कर चुके हैं।
  1. खतरनाक तथ्य यह है कि वैज्ञानिक "खराब हैकर्स" से लड़ने के लिए अत्यधिक उन्नत एआई सिस्टम विकसित कर रहे हैं। अधिक से अधिक अच्छे के लिए ऐसा करने में, वे मानते हैं कि गलत हाथों में उनकी अधीक्षण प्रणाली कहर और विनाश को खत्म कर देगी।
  1. के विशेषज्ञमाइक्रोसॉफ्ट आवेदन पत्र और सेवाएं समूहपूर्वी एशिया में, उन्होंने एक कृत्रिम कार्यक्रम बनाया जो भावनाओं का "अनुभव" कर सकता है और लोगों से "मनुष्यों की तरह" बात कर सकता है। नाम से एआईजिआओइस17 साल की लड़की की तरह सवालों के जवाब। यदि वह विषय नहीं जानती है, तो वह झूठ बोल सकती है। यदि आप उसे झूठ में पकड़ लेते हैं, तो वह क्रोधित हो जाएगी या शर्मिंदा हो जाएगी।
  1. रोबोट सोफिया दावोस में वर्ल्ड इकोनॉमिक फोरम में Sberbank के बिजनेस ब्रेकफास्ट की मेहमान बनीं। बैठक के दौरान, दुनिया में कृत्रिम बुद्धि के विकास की संभावनाओं के विषय पर चर्चा की गई। जर्मन ग्रीफ ने रोबोट से पूछा कि क्या यह कृत्रिम बुद्धि के विकास को सीमित करने लायक है।

सोफी ने जवाब दिया, "लोगों को इन परिवर्तनों को खारिज नहीं करना चाहिए, लेकिन आलोचना की एक स्वस्थ खुराक का स्वागत है। हमें टर्मिनेटर जैसी फिल्मों से मत आंकिए।"

तो, हमारे जीवन में AI का उपयोग एक अपरिवर्तनीय प्रक्रिया बन गई है।

आज इसे मना करना उतना ही असंभव है जितना रोकना तकनीकी प्रगति. एक या अधिक कार्यों के समाधान को स्वचालित करने के लिए डिज़ाइन की गई "कमजोर" या अनुप्रयुक्त बुद्धि का विकास गति प्राप्त कर रहा है और पहले से ही ले जा रहा है सामाजिक परिणाम. असीमित बौद्धिक कार्यों को हल करने में सक्षम "मजबूत" काल्पनिक कृत्रिम बुद्धि के निर्माण से क्या उम्मीद की जाए? मानव अधिकारों के बड़े पैमाने पर उल्लंघन से बचने के लिए कौन नियंत्रण प्रदान करेगा, जो एआई के प्रबंधन और उपयोग के लिए कानूनी ढांचे को विकसित करने के लिए जिम्मेदार है, जो सुरक्षा नियमों को निर्धारित और अनुमोदित करता है, जो एआई के उपयोग का ऑडिट करता है?

मैं आपसे इस सबसे महत्वपूर्ण विषय पर चर्चा करने के लिए मेरी अपील का समर्थन करने के लिए कहता हूं आजराष्ट्रीय और अंतरराष्ट्रीय मंचों पर।

रूस, चीन, अमेरिका के राष्ट्रपति, जर्मनी के चांसलर,

इज़राइल, स्पेन, जॉर्जिया के प्रधान मंत्री,

सरकार के अन्य प्रमुख

सभी नोबेल पुरस्कार विजेताओं को,

राष्ट्रीय विज्ञान अकादमी के अध्यक्ष,

रूस के प्रमुख रब्बी बर्ल लज़ार,

परम पावन पोप फ्रांसिस,

परमपावन

मॉस्को और ऑल रशिया किरिल के कुलपति,

परम पावन और धन्य

कैथोलिकोस-ऑल जॉर्जिया इलिया II के कुलपति,

रूस के मुफ्ती परिषद के अध्यक्ष,

आध्यात्मिक प्रशासन के प्रेसिडियम के अध्यक्ष

रूस के एशियाई भाग के मुसलमान

ग्रैंड मुफ्ती,

रूस के मुफ्ती परिषद के सह-अध्यक्ष,

शेख नफीगुल्ला आशिरोव,

रूस के पारंपरिक बौद्ध संघ के प्रमुख

XXIV पंडितो खंबो लंगड़ा दम्बे बदमायेविच आयुशेव

देवियो और सज्जनों!

आज के बौद्धिक और सामाजिक अभिजात वर्ग से संबंधित होने से आपको इस पर बोलने के लिए प्रोत्साहित करना चाहिए सबसे महत्वपूर्ण मुद्दाहमारी सभ्यता: सभी मानव जाति के लिए एक घातक तकनीक का निर्माण - कृत्रिम बुद्धिमत्ता। आज दुनिया देख रही है कि कैसे तेजी से तकनीकी विकास पूरे मानव पर्यावरण के गहन परिवर्तन की ओर ले जाता है। हमारी आंखों के सामने, न केवल जीवन के पारिस्थितिक और तकनीकी परिदृश्य में, बल्कि सूचना और संचार क्षेत्र में भी मूलभूत परिवर्तन हो रहे हैं। यह प्रक्रिया प्रकृति में व्यापक नहीं है - यह केवल पारिस्थितिकी तंत्र के नए संसाधनों को जुटाने के माध्यम से मनुष्य की तकनीकी और आर्थिक क्षमताओं का विस्तार नहीं है। नहीं, इसका एक गुणात्मक, गहन दायरा है, जो होमो सेपियन्स के सार को प्रभावित करता है - उसके दिमाग का क्षेत्र।

यह विश्वास कि कृत्रिम बुद्धिमत्ता प्रणाली बनाई जा रही है जो मानवता के लिए एक वास्तविक खतरा है, कई वैज्ञानिकों द्वारा साझा की जाती है। हालाँकि, हम आश्वस्त हैं कि भविष्य की दुनिया की इस सबसे गंभीर समस्या को सार्वजनिक क्षेत्र में लाया जाना चाहिए - आखिरकार, यह है विशिष्ठ व्यक्तिविज्ञान और धर्म के क्षेत्रों से मनुष्य के बारे में विशाल ज्ञान संचित किया है, यह वे हैं जो किसी व्यक्ति के लिए रोबोटिक्स के विकास के लिए एक दर्द रहित मार्ग प्रदान करने में सक्षम हैं। अन्यथा, कृत्रिम बुद्धि का अनियंत्रित विकास और उत्पादन बदल जाएगा वातावरणइतनी जल्दी कि मास मैनजबरन निकाल दिया जाएगा, गुलाम बना लिया जाएगा या नष्ट कर दिया जाएगा। "भौतिकी का कोई ऐसा नियम नहीं है जो कणों की परस्पर क्रिया को अपनी कृत्रिम बुद्धि और पूरी तरह से स्वतंत्र तार्किक संयोजन बनाने से रोक सके जो कि दुर्गम हैं मानव मस्तिष्क", - विश्वास करता है प्रसिद्ध भौतिक विज्ञानीस्टीफन हॉकिंग।

आर्टिफिशियल इंटेलिजेंस सबसे तेजी से बढ़ते उद्योगों में से एक है अंतःविषय ज्ञान. इस तरह के शोध का संज्ञानात्मक आधार मस्तिष्क संरचनाओं के अध्ययन में नवीनतम प्रयोग हैं: तंत्रिका जाल, सीखने और संचार के लिए जिम्मेदार दर्पण न्यूरॉन्स के रूप में जाना जाता है, साथ ही मस्तिष्क संगठन (कनेक्टोम और कॉग्निटोम) की अधिक जटिल बहुआयामी नेटवर्क संरचनाएं। पहले से ही आज, युवा और बंद कंपनी विकारियस (यूएसए) नियोकोर्टेक्स (कृत्रिम मस्तिष्क का नया प्रांतस्था) का एक डिजिटल मॉडल बना रही है, जो संवेदी धारणा, सचेत सोच और भाषण में सक्षम है। इस लक्ष्य तक पहुंचने पर, न केवल श्रम बाजार में आमूल-चूल परिवर्तन होगा, क्योंकि करोड़ों लोग और यहां तक ​​कि अरबों लोग भी इससे बाहर निकलने के लिए मजबूर होंगे। एआई विकास का एक स्तर आएगा जिस पर एक व्यक्ति रोबोट बन जाएगा या पूरी तरह से गायब हो जाएगा। एआई का अप्रबंधित विकास संभावित रूप से इससे बड़ा खतरा है परमाणु हथियार, हमारे समय की कोई अन्य चुनौती। विज्ञान को लोगों की सेवा करनी चाहिए, लोगों को बाहर नहीं करनी चाहिए। अगर आर्टिफिशियल इंटेलिजेंस में है निरंतर विकास, तो व्यक्ति स्वयं, जैव प्रौद्योगिकी के हस्तक्षेप के बिना, अपने स्तर तक नहीं पहुंच पाएगा। हमारे अनुमानों के अनुसार, 2035 तक केवल उच्च शिक्षा 30 करोड़ से अधिक नौकरियों का नुकसान होगा और 2070 तक यह आंकड़ा लगभग एक अरब हो जाएगा। वह व्यक्ति कहाँ जाएगा? हमारे ग्रह के अलावा, उसके पास रहने के लिए कहीं नहीं है।

राज्य बायोइंटेलिजेंस के विकास के उद्देश्य से कार्यक्रमों में निवेश नहीं करते हैं। जेनेटिक इंजीनियरिंगऐसी परियोजनाओं पर काम शुरू ही नहीं किया। आखिर में आर्टिफिशियल इंटेलिजेंस इंसानों की जगह ले लेगा। ऐसा होने से रोकने के लिए, किसी को आनुवंशिक इंजीनियरिंग और जैविक साधनों के तरीकों का उपयोग करना चाहिए (उपकरण नैनोट्वीज़र और एक परमाणु असेंबलर इस उद्देश्य को प्रभावी ढंग से पूरा कर सकते हैं)। इसके अलावा, निकट भविष्य में कृत्रिम बुद्धि के विकास को कानूनी रूप से सीमित करने की आवश्यकता है।

हम दर्द के साथ देखते हैं कि एआई को हमारे जीवन में उच्च गति से मजबूती से पेश किया गया है। "पेप्सी पीढ़ी" पहले से ही आज खुद को "मैं और गैजेट" प्रणाली के साथ पहचानती है, ईमानदारी से इस तरह के संश्लेषण को "शांत" और फैशनेबल ढूंढती है। उसके साथ संवाद करने के लिए लोगों की मनोवैज्ञानिक लत है, उस पर निर्भरता और उसके प्रति पूर्ण समर्पण निश्चित है। ऐसा "अमानवीयकरण", अफसोस, एक विचारहीन और गैर-जिम्मेदार अधिरचना का अनुमानित परिणाम है - प्राकृतिक चेतना पर कृत्रिम बुद्धि। साइबर निर्भरता किसी व्यक्ति के स्वयंसिद्ध (अच्छे-बुरे) की प्रणाली, उसके नैतिक और धार्मिक विचारों का खंडन करती है।

आज, मानवता के लिए, कृत्रिम बुद्धि के विकास की सीमाओं को निर्धारित करने के तरीकों पर एक संवाद महत्वपूर्ण और तत्काल आवश्यक है। आखिरकार, सभ्यता के क्षेत्र में इसका हिस्सा जितना अधिक होगा, लोगों को अपनी व्यक्तिगत क्षमता का एहसास करने, स्वतंत्रता, रचनात्मकता, प्रेम, आत्म-अभिव्यक्ति की अपनी आवश्यकताओं को पूरा करने के वास्तविक अवसर उतने ही कम होंगे। मानवता एक अस्तित्वगत जोखिम के कगार पर है - कृत्रिम बुद्धिमत्ता से बुद्धिमान जीवन की मृत्यु का खतरा है।

हम आपसे और अन्य सभी प्रतिष्ठित वैज्ञानिकों, साथ ही राय नेताओं और विश्व धर्मों के प्रमुखों को विशाल कृत्रिम बुद्धिमत्ता विकास कार्यक्रमों के कार्यान्वयन का विरोध करने के लिए पहले परामर्श के लिए (हम बैठक स्थल पर आपकी सिफारिशों के लिए तत्पर हैं) इकट्ठा होने का आह्वान करते हैं। आखिरकार, व्यापार एआई विकास परियोजनाओं में निवेश की गति बढ़ा रहा है। लेकिन मानव जाति बिना उठी निवेश परियोजना. क्या यह संभव है कि लाभ हमारे आम परिवार की कब्र खोदने वाला बन जाए?

रोबोट, जोड़तोड़ करने वाले - बेशक, हाँ! कृत्रिम बुद्धि का असीमित विकास - बिल्कुल नहीं!

यह सबसे महत्वपूर्ण समस्याआधुनिकता को आपकी भागीदारी, मदद और विचारों की सख्त जरूरत है।

दुनिया की सभी भाषाओं - अंग्रेजी, जर्मन, फ्रेंच, चीनी, जापानी, पोलिश, सर्बियाई, स्पेनिश और अन्य - में यह अपील दुनिया के सभी देशों के सभी केंद्रीय समाचार पत्रों को भेजी जाती है।

पुनश्च. आर्टिफिशियल इंटेलिजेंस की समस्या के बारे में मेरे उपन्यास "सोलो मोनो। जर्नी ऑफ द माइंड ऑफ द हारिस्ट" में पढ़ें।

अगले क्षणिक "संकट" से बाहर निकलते हुए, हम शायद ही कभी आने वाली पीढ़ियों के बारे में सोचते हैं। वे नहीं जो एक-दो शताब्दियों में आएंगे, बल्कि वे जो (और करेंगे?) 1,000 और 10,000 वर्षों में जीवित रहेंगे। संदेह संयोग से नहीं उठता: देर-सबेर हमें इनमें से किसी एक का सामना करना पड़ेगा वैश्विक आपदा- न केवल एक बड़े पैमाने पर आपदा, बल्कि मानव जाति के इतिहास में एक साहसिक बिंदु।

सदियों से, अलग-अलग दिमागों ने दूर के भविष्य को उन तरीकों से देखने की कोशिश की है: नास्त्रेदमस जैसे रहस्यवादी "भविष्यवाणियां" करते हैं, एचजी वेल्स जैसे लेखक बनाते हैं शानदार काम, भविष्य विज्ञानी पूर्वानुमान देते हैं। और यद्यपि हम अभी भी अधिकांश वैश्विक आपदाओं को रोकने में असमर्थ हैं, आधुनिक तकनीकउनके कुछ प्रभावों को कम करने की अनुमति दें।

काश, इन खतरों को अभी भी कम समझा जाता है, शायद शक्तिहीनता और उनके साथ जुड़े भाग्यवाद की भावना के कारण। "दुनिया के अंत" के बारे में बात करें जो समय-समय पर हजारों वर्षों से उत्पन्न हुई है, लेकिन क्या किसी ने सर्वनाश के रास्ते में आने की कोशिश की है, उन्हें बचाने के लिए कुछ भी किया है? ऐसी इकाइयां। लोगों को किसी ऐसी समस्या के बारे में कुछ करना मुश्किल लगता है जिसका उन्होंने पहले कभी सामना नहीं किया है (आंशिक रूप से "उपलब्धता अनुमानी" के कारण - किसी घटना की संभावना का अनुमान लगाने के लिए मानव मन की क्षमता जिसके साथ समान उदाहरण याद किए जाते हैं)। जब ऐसी घटना की बात आती है जो मानव जीवन में कभी नहीं हुई है, तो हम जोखिमों को कम आंकते हैं।

इस बीच, मानव जाति के विनाश के संभावित कारणों की संख्या समय के साथ कम नहीं होती है। इसके विपरीत, हम अधिक से अधिक नए खतरों का पता लगाते हैं (या स्वयं बनाते हैं)। इसका एक उदाहरण पर्यवेक्षी है, जिसे 1970 के दशक में खोजा गया था, और परमाणु खतरा. इस या उस वैश्विक तबाही की संभावनाएं भी समय के साथ बदलती हैं, वे कम हो सकती हैं क्योंकि हमने जोखिम को महसूस किया है और खतरे को रोकने के लिए कोई कार्रवाई की है। इस प्रकार, स्वच्छता मानकों, टीकों और एंटीबायोटिक दवाओं के उद्भव ने महामारी के लिए जिम्मेदारी को "से स्थानांतरित कर दिया" उच्च शक्तियां» स्वास्थ्य अधिकारियों के लिए। कई अन्य संभावित आपदाओं के खिलाफ, हम अभी भी शक्तिहीन हैं (इस तरह के खतरे का एक उदाहरण गामा-रे विस्फोट है, जो कहीं पास में हो सकता है)।

यहाँ कुछ हैं संभावित कारणहमारी सभ्यता का लुप्त होना एक लंबी और समय-समय पर अद्यतन सूची में से केवल पाँच हैं:

1. परमाणु युद्ध।

परमाणु हथियारों का युद्ध में केवल दो बार उपयोग किया गया है, और अब परमाणु शस्त्रागार कहीं भी उतने विशाल नहीं हैं जितने वे अपने चरम पर थे। शीत युद्ध, लेकिन परमाणु युद्ध उतना असंभव नहीं है जितना यह लग सकता है। कैरेबियाई संकट लगभग परमाणु टकराव में बदल गया। यदि हम यह मान लें कि ऐसा प्रत्येक 69 वर्ष में कम से कम एक बार होता है, और इस तरह के संघर्ष के परिणामस्वरूप परमाणु हथियारों के उपयोग की संभावना तीन में से एक मौका है, तो संभावना है परमाणु तबाहीप्रत्येक विशेष वर्ष में 1:200 तक पहुँचता है।

जिसमें कैरेबियन संकट- केवल सबसे प्रसिद्ध ऐतिहासिक उदाहरण. और परमाणु शक्तियों के बीच संबंधों में और कितनी खतरनाक गलतियाँ और तनावपूर्ण क्षण थे?

मानव जाति के अस्तित्व के लिए मुख्य खतरा परमाणु हमले और बाद में विकिरण संदूषण नहीं होगा (हालाँकि लाखों लोग उनके शिकार हो सकते हैं)। लेकिन केवल बाद की परमाणु सर्दी वैश्विक तबाही से भरी हुई है, जिसमें सबसे अच्छा मामलामुट्ठी भर लोगों को पीछे छोड़ देगा जो चमत्कारिक रूप से ठंडे और सूखे ग्रह पर भूख और बीमारी से बचे रहे। हालांकि, परिणामों की गंभीरता समताप मंडल में जारी कालिख और धुएं के प्रकार के आधार पर भिन्न हो सकती है, और वास्तविक जोखिमों का आकलन करने के लिए वर्तमान में कोई विश्वसनीय तरीके नहीं हैं।

2 मानव निर्मित महामारी

लेकिन हम बीमारी को बदतर बना सकते हैं। प्रसिद्ध उदाहरणों में से एक एक्ट्रोमेलिया वायरस (माउस पॉक्स) है, जिसे वैज्ञानिकों से "उपहार" प्राप्त हुआ है। अतिरिक्त जीन, उन व्यक्तियों को भी संक्रमित करना सीखा जिन्हें टीका लगाया गया था, और यह और भी घातक हो गया। एवियन इन्फ्लूएंजा वायरस पर हाल के शोध से पता चला है कि इसके विषाणु को जानबूझकर बढ़ाया जा सकता है।

वर्तमान में, किसी संभावित महामारी अपराधी को जानबूझकर बाहर निकालने का जोखिम बहुत कम है। लेकिन जैव प्रौद्योगिकी अधिक से अधिक सुलभ होती जा रही है। जैव-हथियार विकसित करने वाली सरकारें राजनीतिक प्रभाव का लाभ उठाने की तलाश में हैं, न कि कुल विनाश के तरीके, लेकिन "गेराज प्रयोगशालाओं" के मालिक खतरनाक तनाव को सिर्फ इसलिए छोड़ सकते हैं क्योंकि वे कर सकते हैं। या वैचारिक कारणों से, जैसा कि ओम् शिनरिक्यो संप्रदाय के प्रतिनिधियों ने किया था (हालांकि बहुत सफलतापूर्वक नहीं, उनके अन्य ज़हरीले गैस हमले के विपरीत)। बहुत से लोग मानते हैं कि लोगों के बिना पृथ्वी एक बेहतर जगह होगी।

3. ओवरमाइंड

बुद्धि एक शक्तिशाली हथियार है। समस्या समाधान और समूह समन्वय में एक छोटा सा फायदा, और हम मनुष्यों ने वानरों को बहुत पीछे छोड़ दिया है। अब उनका अस्तित्व मानवीय निर्णयों पर निर्भर करता है। स्मार्ट होना लाभदायक है, इसलिए हम इस दिशा में बहुत प्रयास कर रहे हैं - नॉट्रोपिक दवाओं के निर्माण से लेकर आर्टिफिशियल इंटेलिजेंस सिस्टम के विकास तक।

समस्या यह है कि स्मार्ट लोग वास्तव में अपने लक्ष्यों को प्रभावी ढंग से प्राप्त कर सकते हैं। लेकिन अपने आप में बुद्धि की उपस्थिति इस बात की गारंटी नहीं देती कि ये लक्ष्य अच्छे होंगे। इसके विपरीत, एक अच्छा मौका है कि अधीक्षण समुदाय और सिस्टम आम तौर पर स्वीकृत नैतिक मानदंडों का पालन नहीं करेंगे। और अद्भुत दक्षता के साथ वे मानव जाति के इतिहास का अंत कर देंगे।

आर्टिफिशियल इंटेलिजेंस सिस्टम बहुत जल्दी "मनुष्यों की तरह नहीं" से "मनुष्यों की तुलना में बहुत अधिक" की ओर बढ़ सकता है। संभवतः, सफलता तब मिलेगी जब सॉफ्टवेयर और भी बेहतर एल्गोरिदम बनाने के लिए पर्याप्त हो जाएगा। यह मानने के अच्छे कारण हैं कि कुछ प्रौद्योगिकियां इतनी तेज़ी से विकसित होना शुरू हो सकती हैं कि मानव मन प्रगति के साथ नहीं रह पाएगा - एक तकनीकी विलक्षणता आएगी।

वर्तमान में, हमारे लिए यह कल्पना करना भी मुश्किल है कि कृत्रिम बुद्धि के कुछ रूप कितने खतरनाक हो सकते हैं, और इस खतरे का मुकाबला करने के लिए कौन सी रणनीतियां प्रभावी होंगी। इस बीच, पिछली सदी के 50 और 60 के दशक में, लोगों को यकीन था कि अधीक्षण "एक पीढ़ी के जीवन के भीतर" दिखाई देगा, लेकिन सुरक्षा सुनिश्चित करने के लिए कोई महत्वपूर्ण कदम नहीं उठाया। शायद उन्हें अपनी खुद की भविष्यवाणियों पर विश्वास नहीं था या यह विश्वास था कि भविष्य अभी बहुत दूर है?

4. नैनो टेक्नोलॉजी

नैनो-प्रौद्योगिकी अपने आप में एक अच्छी बात है, लेकिन, जैव प्रौद्योगिकी के मामले में, उनके स्तर की वृद्धि, और साथ ही उनकी पहुंच, न केवल वैज्ञानिकों और इंजीनियरों के लिए, बल्कि हमलावरों के लिए भी व्यापक संभावनाएं खोलती है।

और विनाशकारी नैनोटेक्नोलोजी के क्षेत्र में मुख्य समस्या कुख्यात "ग्रे गू" नहीं है (स्व-प्रतिकृति नैनोरोबोट्स जो सभी उपलब्ध पदार्थों को खा जाते हैं)। ऐसी मशीनों का निर्माण करना काफी कठिन है; जैविक प्रणालियाँ अभी भी स्व-प्रजनन और भक्षण के मामलों में बहुत अधिक कुशल हैं। शायद, जल्दी या बाद में, कोई पागल मास्टर होगा इस कार्य, लेकिन विनाशकारी प्रौद्योगिकियों के पेड़ पर बहुत नीचे लटके हुए आकर्षक फल हैं।

सबसे पहले, यह न्यूनतम लागत (और एक परमाणु की सटीकता के साथ) के साथ लगभग कुछ भी उत्पादन करने का अवसर है। एक ऐसे ग्रह पर जहां सरकारें स्वायत्त और अर्ध-स्वायत्त सहित किसी भी हथियार को "प्रिंट" करने में सक्षम हैं, और इन हथियारों को बनाने के लिए नए "प्रिंटर" हैं, हथियारों की दौड़ बहुत तेज हो सकती है, और दुनिया नाजुक हो सकती है। अपने शिकार और जलवायु हथियारों को चुनने में सक्षम "स्मार्ट जहर" विनाशकारी उच्च तकनीक वाले "खिलौने" के उदाहरण हैं जो मानवता के हाथों में समाप्त हो सकते हैं।

यह आंकना मुश्किल है कि नैनोटेक्नोलॉजीज क्या खतरे पैदा कर सकती हैं, लेकिन केवल यह तथ्य कि किसी दिन वे हमें वह सब कुछ देने में सक्षम होंगे जो हम चाहते हैं, हमें आश्चर्यचकित करता है।

5. अज्ञात वैश्विक खतरा

शायद मानव जाति के भविष्य में सबसे अधिक परेशान करने वाली संभावना किसी नश्वर खतरे की उपस्थिति प्रतीत होती है, जिसके बारे में हमें कोई जानकारी नहीं है।

"ब्रह्मांड का मौन" इस बात का प्रमाण हो सकता है कि यह अज्ञात खतरा मौजूद है। हमें अभी भी एलियन इंटेलिजेंस के अस्तित्व के कोई संकेत नहीं मिले हैं। क्यों? क्या ब्रह्मांड में जीवन और बुद्धि वास्तव में इतनी दुर्लभ है? या क्या सभी सभ्यताएं देर-सबेर किसी ऐसी चीज का सामना करती हैं जो उनके विलुप्त होने की ओर ले जाती है? यदि किसी प्रकार का महान फ़िल्टर है, तो अन्य सभ्यताओं ने इसके बारे में अनुमान लगाया होगा - लेकिन जाहिर है, इससे उन्हें मदद नहीं मिली ...

यह अज्ञात खतरा जो भी हो, यह व्यावहारिक रूप से अपरिहार्य होना चाहिए, नियम "जिसे पहले से ही चेतावनी दी गई है" यहां काम नहीं करेगा, चाहे कुछ भी हो तकनीकी साधनबर्बाद सभ्यता के पास नहीं था। मानवता द्वारा तैयार किए गए वैश्विक खतरों में से कोई भी इस परिभाषा के अंतर्गत नहीं आता है।

हालांकि, यह तथ्य कि हम संभावित ग्रेट फिल्टर के बारे में बिल्कुल कुछ नहीं जानते हैं, वैज्ञानिकों को इस विषय पर अटकलें लगाने से नहीं रोकता है। मैक्स टेगमार्क और निक बोस्ट्रोम ने पृथ्वी की सापेक्ष आयु के आधार पर दिखाया है कि किसी भी वर्ष में अज्ञात कारणों से सर्वनाश का जोखिम एक लाख में एक मौका के क्रम का है।

अन्य कार्यों में, Bostrom और अन्य शोधकर्ता निम्नलिखित संभावित आपदाओं की पहचान करते हैं जो मानव सभ्यता के गायब होने का कारण बन सकते हैं, दोनों प्राकृतिक और मानव निर्मित:

मेटास्टेबल वैक्यूम का क्षय;

बंद गामा-किरण फट;

सुपरवॉल्केनो विस्फोट;

एक क्षुद्रग्रह का गिरना (पृथ्वी के लिए सुरक्षित प्रक्षेपवक्र से इसके दुर्भावनापूर्ण विचलन के परिणामस्वरूप);

सूर्य पर सुपरफ्लेयर;

गंभीर रूप से कमजोर होना या पूरी तरह से गायब हो जाना चुंबकीय क्षेत्रधरती

भौगोलिक ध्रुवों के चुंबकीय या तीव्र परिवर्तन का एक और परिवर्तन;

मानव गतिविधियों के कारण होने वाले सहित ग्रह या अन्य विनाशकारी जलवायु परिवर्तनों के जमने के लिए वैश्विक शीतलन;

ओजोन परत का ह्रास (प्राकृतिक या मानव निर्मित कारणों से)।

मानव निर्मित:

अमित्र कृत्रिम बुद्धि;

जैव आतंकवाद या जैव प्रौद्योगिकीय तबाही;

नैनोरोबोट्स और अन्य नैनोटेक आपदाओं का असीमित पुनरुत्पादन;

परमाणु युद्ध, परमाणु सर्दीऔर वैश्विक रेडियोधर्मी संदूषण;

असफल शारीरिक प्रयोग;

उपरोक्त प्रक्रियाओं के आपसी सुदृढ़ीकरण से जुड़ा एक प्रणालीगत संकट।

विदेशी हमला।

हालाँकि, यहाँ मानी जाने वाली पाँच संभावित वैश्विक तबाही सबसे अधिक प्रतीत होती हैं संभावित कारणहमारी सभ्यता का पूर्ण रूप से विलुप्त होना। उदाहरण के लिए, जब कोई क्षुद्रग्रह गिरता है, तो मानवता को बहुत अशुभ होना चाहिए ताकि वह पूरी तरह से पृथ्वी के चेहरे से मिटा दिया जा सके। उपस्थिति अनुमानी हमें उन खतरों को कम आंकने की ओर ले जाता है जो लगातार मीडिया में दिखाई देते हैं और संभावित आपदाओं को कम आंकते हैं जिनकी कोई मिसाल नहीं है। अगर हमें अभी भी एक लाख वर्षों में यहां रहना है तो हमें अपना दृष्टिकोण बदलना होगा।

यह निश्चित रूप से ज्ञात है कि हमारे ग्रह पर मौजूद जीवित प्राणियों की 99% से अधिक प्रजातियां गायब हो गई हैं। और यह संभावना नहीं है कि एक व्यक्ति हमेशा के लिए जीवित रहेगा। हमारे अस्तित्व के लिए क्या खतरा है, इस बारे में सवाल पूछते हुए, हम अपने दिमाग में एक विशाल उल्कापिंड या विदेशी आक्रमणकारियों के आक्रमण के बारे में फिल्मों से सर्वनाश की छवियां खींचते हैं। लेकिन कम सिनेमाई, लेकिन काफी वास्तविक परिदृश्य भी हैं जिनके बारे में बहुत कम लोग सोचते हैं।

सौर तूफान

हमारे दिग्गज के काम में थोड़ी सी भी खराबी संल्लयन संयंत्र- यानी, सूर्य, इस तथ्य को जन्म दे सकता है कि हमारा ग्रह जीवन और इसके लिए आवश्यक सामग्री का समर्थन करने के लिए या तो बहुत ठंडा या बहुत गर्म हो सकता है: अर्थात्, एक सांस लेने योग्य वातावरण और तरल अवस्था में पानी। हमारी गैलेक्सी के अधिकांश अन्य सितारों की तुलना में सूर्य काफी स्थिर तारा है, लेकिन इसका उज्ज्वल प्रवाह अपेक्षाकृत स्थिर 11 साल के चक्र में बदल जाता है। ये परिवर्तन केवल 0.1% हैं, लेकिन इस नगण्य आंकड़े का भी पृथ्वी की जलवायु पर गंभीर प्रभाव पड़ता है।

मध्यम तूफान साल में नियमित रूप से 100-150 बार आते हैं, लेकिन सौर सुपरस्टॉर्म विकसित देशों में पावर ग्रिड के एक महत्वपूर्ण हिस्से को नष्ट कर सकता है। रिकॉर्ड पर सबसे शक्तिशाली तूफान 1859 का तूफान था, जिसे कैरिंगटन इवेंट के रूप में भी जाना जाता है। कोरोनल इजेक्शन इतना शक्तिशाली था कि उत्तरी लाइट्सपूरी दुनिया में मनाया जाता है, यहां तक ​​कि कैरिबियन में भी। सौर तूफान ने बाधित परिचालन टेलीग्राफ लाइनेंअमेरीका। लेकिन में मध्य उन्नीसवींसदी में कोई गंभीर विद्युत बुनियादी ढांचा नहीं था, लेकिन अगर आज ऐसी तबाही हुई, तो यह उच्च-वोल्टेज ट्रांसफार्मर को निष्क्रिय कर देगा और पूरे देश को बिजली के बिना छोड़ देगा, हमें सौ साल पीछे कर देगा।


गामा फट

सूर्य एकमात्र ऐसा तारा नहीं है जो हमारे ग्रह के लिए खतरा है। दूर की आकाशगंगाओं में बड़े पैमाने पर ब्रह्मांडीय ऊर्जा उत्सर्जन देखा जाता है, उन्हें गामा-किरण विस्फोट कहा जाता है। ये सबसे चमकीली विद्युतचुंबकीय घटनाएँ हैं जो एक सुपरनोवा विस्फोट के दौरान होती हैं, जब एक तेजी से घूमता है विशाल सिताराढह जाता है, या तो न्यूट्रॉन तारा बन जाता है, या क्वार्क तारा, या ब्लैक होल। वहीं, एक फ्लैश के चंद सेकेंड में उतनी ही ऊर्जा निकलती है जितनी सूर्य 10 अरब साल में छोड़ता है।

इन उत्सर्जन के स्रोत पृथ्वी से अरबों प्रकाश वर्ष की दूरी पर हैं, और हमारी गैलेक्सी में एक गामा-किरण विस्फोट एक लाख वर्षों में लगभग 1 बार होता है, लेकिन अगर यह पृथ्वी के काफी करीब होता है, तो इसके परिणाम महत्वपूर्ण होंगे सभी जीवित चीजों को प्रभावित करते हैं। 2004 के एक अध्ययन के अनुसार, लगभग 3,262 प्रकाश-वर्ष की दूरी पर एक गामा-किरण फटने से पृथ्वी की ओजोन परत का आधा हिस्सा नष्ट हो सकता है, जो कि पराबैंगनी विकिरण के खिलाफ हमारा मुख्य बचाव है। उसी समय, विस्फोट से किरणें, सामान्य के साथ संयुक्त सौर विकिरणकमजोर ओजोन "फिल्टर" से गुजरने का कारण हो सकता है सामूहिक विनाशइंसानियत।

यदि गामा-किरणों का फटना 10 प्रकाश वर्ष की दूरी पर होता है (ऐसी सीमा के भीतर हमसे लगभग 10 तारे हैं), यह आकाश के हर हेक्टेयर पर एक परमाणु बम विस्फोट के बराबर होगा, और आधे ग्रह पर सभी जीवन तुरंत नष्ट हो जाएगा, और दूसरी छमाही में थोड़ी देर बाद माध्यमिक प्रभावों के कारण।


Supervolcanoes

हमारे ग्रह की आंतों में एक गंभीर खतरा मंडरा रहा है। यह ज्ञात है कि तथाकथित सुपरवोलकैनो के विस्फोट, जिनमें से पृथ्वी पर लगभग 20 हैं, पृथ्वी पर जलवायु को बदल सकते हैं और सबसे भयानक परिणाम दे सकते हैं। एक बात अच्छी है - औसतन हर 100 हजार साल में एक बार ऐसे विस्फोट होते हैं।

सबसे खतरनाक में से एक भूमिगत बलयेलोस्टोन काल्डेरा को वहन करता है, जो लगभग 55 किमी 72 किमी की दूरी पर है, और प्रसिद्ध के एक तिहाई क्षेत्र पर कब्जा करता है राष्ट्रीय उद्यान. वैज्ञानिकों ने निर्धारित किया है कि ज्वालामुखी तीन बार फटा, पिछली बार 640 हजार साल पहले। वैज्ञानिकों द्वारा प्रति वर्ष 0.00014% पर एक नए विशाल विस्फोट की संभावना का अनुमान लगाया गया है।

विस्फोट येलोस्टोन ज्वालामुखीसभी मानव जाति के लिए खतरा है। वैज्ञानिकों के अनुसार, एक विशाल बादल समताप मंडल में फेंका जाएगा, जो लटक सकता है लंबे समय तकसूर्य के प्रकाश को पृथ्वी तक पहुँचने से रोकता है। सौर विकिरण की शक्ति को आधे से कम करने से वैश्विक फसल खराब हो जाएगी, और पृथ्वी पर खाद्य भंडार शायद ही कुछ महीनों के लिए पर्याप्त हो। पृथ्वी पर औसत वार्षिक तापमान 12 डिग्री तक गिर सकता है और 2-3 वर्षों के बाद ही अपनी मूल स्थिति में वापस आ सकता है।

अन्य छोटे ज्वालामुखी एक अलग प्रकृति के भयानक परिणामों की धमकी दे सकते हैं। उदाहरण के लिए, कैनरी द्वीपसमूह में ला पाल्मा द्वीप पर एक ज्वालामुखी, विस्फोट की स्थिति में, एक विशाल का कारण बन सकता है समुद्र की लहर, जो कैरिबियन और अमेरिकी तट के विशाल क्षेत्रों में बाढ़ लाने में सक्षम है। ज्वालामुखी की ढलानों में से एक अस्थिर है, और अगर यह फटना शुरू हो जाता है, तो आधा ट्रिलियन टन वजनी चट्टान समुद्र में गिर सकती है। इससे 650 मीटर ऊंची लहर उठेगी, जिससे अटलांटिक को जल्दी से पार करना मुश्किल नहीं होगा।


वैश्विक सर्वव्यापी महामारी

हमारे ग्रह की जनसंख्या लगातार बढ़ रही है, और साथ ही, 50% से अधिक लोग शहर के निवासी हैं। अधिक जनसंख्या उत्परिवर्तन में वृद्धि की ओर ले जाती है, और उच्च घनत्वजनसंख्या - रोगों के तेजी से प्रसार के लिए। जाहिर है, यह प्रवृत्ति केवल जारी रहेगी, और भविष्य में हमें नए के उद्भव की उम्मीद करनी चाहिए भयानक महामारी, जो पूरे शहरों को मारने में सक्षम हैं।

वहीं, एंटीबायोटिक्स अधिक से अधिक बेकार होते जा रहे हैं, जो विश्व स्वास्थ्य संगठन को लेकर गंभीर रूप से चिंतित है। एंटीबायोटिक प्रतिरोध के उदय ने मानवता को पेनिसिलिन के आविष्कार से पहले के समय में वापस स्थापित करने की धमकी दी, जब सबसे छोटा संक्रमण घातक हो गया। "कई हितधारकों द्वारा त्वरित और ठोस कार्रवाई के अभाव में, हमारी दुनिया एक ऐसे युग में प्रवेश कर रही है जहां एंटीबायोटिक्स अपनी प्रभावशीलता खो रहे हैं, और सामान्य संक्रमण और मामूली चोटें जो दशकों से ठीक हो सकती हैं, अब फिर से मार सकती हैं," सहायक कहते हैं। सीईओडब्ल्यूएचओ स्वास्थ्य सुरक्षा डॉ केजी फुकुदा।

सामान्य तौर पर, यह कल्पना करना मुश्किल नहीं है कि एक नई प्लेग महामारी कैसे फैल जाएगी और डॉक्टरों के पास इसे रोकने का कोई तरीका नहीं होगा। हर कोई जानता है कि ब्लैक डेथ क्या है, जिसने XIV सदी के मध्य में हंगामा किया और दुनिया की लगभग आधी आबादी को नष्ट कर दिया, जिसके बाद आबादी को बहाल करने में लगभग 150 साल लग गए। एक और भयानक महामारी 1918-1919 में आई, जब अनुमानित 50 से 100 मिलियन लोग स्पैनिश फ्लू से मर गए। (या जनसंख्या का लगभग 5%). शहरीकरण के मौजूदा स्तर और परिवहन बुनियादी ढांचे के विकास के साथ, चीजें केवल बदतर होती जाएंगी।

2010 में, महामारी विज्ञानियों की एक टीम ने बनाया कंप्यूटर मॉडलनिपाह वायरस, जिसके बाद हमने निगरानी की कि यह कैसे फैलता और विकसित होता। कंप्यूटर सिमुलेशन के परिणामों पर एक रिपोर्ट ने फिल्म "कॉन्टैगियन" का आधार बनाया। इसलिए दुनिया भर में तेजी से फैल रहे अज्ञात मूल के घातक वायरस की कल्पनाएं सच हो सकती हैं।


संसाधन का क्षरण

हमारे ग्रह की आंतों में कितना तेल बचा है, यह निश्चित रूप से कोई नहीं जानता। लेकिन आशावादी पूर्वानुमानों के अनुसार, 2050 तक दुनिया के आधे तेल भंडार को पहले ही पंप कर दिया जाएगा। (जारी खुफिया जानकारी के अनुसार). "पहली और सबसे अधिक दबाव वाली समस्या जिसका हम तब तक सामना करेंगे, वह है सस्ते के युग का अंत प्राकृतिक ईंधन. यह अतिशयोक्ति के बिना कहा जा सकता है कि यह सस्ते तेल का भंडार है और प्राकृतिक गैसआधुनिक धनी जीवन के केंद्र में है,” भाग्यवादी लेखक जेम्स जी. कुन्स्लर लिखते हैं।

तेल संकट के भयानक परिणाम होंगे जिसके लिए दुनिया की अधिकांश आबादी तैयार नहीं है। और यह प्रक्रिया न केवल औद्योगिक देशों को प्रभावित करेगी। समय के साथ, जैसे-जैसे तेल तेजी से दुर्लभ होता जा रहा है, वैसे-वैसे अधिक विकसित देशोंआपको इसकी तलाश करनी होगी जहां यह अभी भी बनी हुई है - इसके कमजोर पड़ोसियों के बीच। आएगा नया मंच"अमीर" देशों द्वारा "गरीब" देशों का शोषण: मध्य पूर्व और अफ्रीका में अधिक से अधिक नए सशस्त्र संघर्ष शुरू हो जाएंगे।

तेल की कमी हो सकती है तीव्र कमीऔर मानव जाति के जीवन के लिए आवश्यक अन्य संसाधन। जीवाश्म ईंधन पर सार्वभौमिक निर्भरता के कारण अरबों लोग भूखे रहेंगे। नतीजतन, यह सब निर्वाह खेती में वापसी का कारण बन सकता है।

शायद एक दिन मानवता तेल की सुई से उतर जाएगी और गैसोलीन को शराब से बदल देगी, जिसे मकई या गन्ने से निकाला जाएगा। हालाँकि, कोई नहीं है ज्ञात तरीका, जिसके साथ हम दुर्लभ पृथ्वी धातुओं का उत्पादन कर सकते हैं, और उनके संभावित विकल्प या तो प्रकृति में मौजूद नहीं हैं, या उनके पास अपर्याप्त गुण हैं। और इन पदार्थों के बिना, हमारे पास न तो स्मार्टफोन होंगे, न ही कंप्यूटर, न ही इलेक्ट्रिक वाहन, न ही कोई अन्य इलेक्ट्रॉनिक्स, और, तदनुसार, प्रगति।

वैज्ञानिकों के अनुसार येल विश्वविद्यालयसंयुक्त राज्य अमेरिका, दुर्लभ पृथ्वी धातुओं के स्रोत जबरदस्त दर से समाप्त हो रहे हैं। पर इस पलसभी दुर्लभ मिट्टी का लगभग 95% चीन में खनन किया जाता है, और हाल ही में, इसकी सरकार ने कुछ तत्वों के निर्यात पर प्रतिबंध लगा दिया है, साथ ही गैर-चीनी उत्पादकों के लिए उनकी कीमत दोगुनी कर दी है।


ग्रे कीचड़

प्रौद्योगिकी के विकास के साथ, मानवता को डरना चाहिए कि ये प्रौद्योगिकियां नियंत्रण से बाहर हो जाएंगी और उनके रचनाकारों को नष्ट कर देंगी। एक काल्पनिक खतरा वह है जिसे भविष्य विज्ञानी ग्रे गू कहते हैं। (ग्रे गू)- स्व-प्रतिकृति आणविक नैनोटेक्नोलॉजी, जो मनुष्य के अधीन नहीं है।

पहली बार अमेरिकी वैज्ञानिक किम एरिक ड्रेक्सलर, जिन्हें "नैनो टेक्नोलॉजी का जनक" कहा जाता है, ने ऐसा पदार्थ बनाने की संभावना के बारे में बताया। वैज्ञानिक ने अपनी पुस्तक मशीन्स ऑफ क्रिएशन में नैनोरोबोट्स बनाने के विचार पर विचार किया। पर मूल विचारयह मान लिया गया था कि सूक्ष्म मशीनों को प्रयोगशाला में विकसित किया जा सकता है, लेकिन यादृच्छिक रूप से उत्पन्न भी किया जा सकता है।

2010 में, डीएनए-आधारित नैनोरोबोट्स को पहली बार प्रदर्शित किया गया था, जो खोजने और नष्ट करने में सक्षम थे कैंसर की कोशिकाएंस्वस्थ ऊतकों को अप्रभावित छोड़ना। लक्ष्य का पता चलने पर छोटे कैप्सूल दवाओं की आवश्यक खुराक छोड़ते हैं और उद्देश्यपूर्ण रूप से "दुश्मन" को नष्ट करते हैं। नतीजतन, यह पता चला कि ये नैनोरोबोट "मालिक" की मृत्यु के बाद एक और महीने तक मौजूद रह सकते हैं।

अब तक, निश्चित रूप से, नैनोसाइबोर्ग पूरी तरह से लोगों के लाभ के लिए विकसित किए जा रहे हैं, लेकिन सिद्धांत रूप में वे दोनों बना और नष्ट कर सकते हैं। यदि, किसी कारण से, नैनोबॉट्स जीवमंडल में प्रवेश करते हैं और अंतहीन रूप से गुणा करना शुरू करते हैं, तो वे अपनी प्रतियां बनाने के लिए सामग्री के रूप में जो कुछ भी प्राप्त कर सकते हैं, वास्तव में, वे ग्रह सहित, चारों ओर सब कुछ अवशोषित करना शुरू कर सकते हैं। उसी समय, काल्पनिक "ग्रे गू" को नष्ट करना बहुत मुश्किल होगा, क्योंकि एक जीवित प्रतिकृति इसके लिए फिर से गुणा करना शुरू करने के लिए पर्याप्त होगी। अगर ऐसा कोई रोबोट घुस जाता है विश्व महासागर, तो इसे नष्ट करना असंभव होगा।


परमाणु प्रलय

जब तक दुनिया में परमाणु हथियार वाले 7 देश हैं, तब तक की संभावना परमाणु युद्धकिसी भी तरह से शून्य के बराबर नहीं हो सकता, इस तथ्य के बावजूद कि यह मानव जाति के विलुप्त होने या पृथ्वी पर आधुनिक सभ्यता के अंत की ओर ले जा सकता है। इस खतरे के कारण काफी स्पष्ट हैं: एक परमाणु विस्फोट एक विनाशकारी के साथ होता है शॉक वेवरास्ते में चारों ओर सब कुछ मिटा देना, प्रकाश विकिरण को जलाना और विकिरण को भेदना, जिससे पदार्थ में अपरिवर्तनीय परिवर्तन होते हैं। जिन लोगों को विस्फोट से सीधे महत्वपूर्ण चोटें भी नहीं आई हैं, उनके संक्रामक रोगों और रासायनिक विषाक्तता से मरने की बहुत संभावना है। आग में जलने या मलबे में दबे होने की प्रबल संभावना है।

एक परमाणु विस्फोट विद्युत चुम्बकीय क्षेत्र में गड़बड़ी का कारण बनता है, जो विद्युत और रेडियो-इलेक्ट्रॉनिक उपकरण - यानी सभी संचार लाइनों, ट्रांसफार्मर, अर्धचालक उपकरणों को अक्षम कर देगा, जिससे सभी आधुनिक तकनीकों का नुकसान होगा।

सभ्यता के सभी जोखिमों के बावजूद, विश्लेषकों का सुझाव है कि अरबों लोग अभी भी वैश्विक थर्मोन्यूक्लियर युद्ध से बचने में सक्षम होंगे। लेकिन इसके खत्म होने के बाद परमाणु सर्दी शुरू हो सकती है। व्यापक विस्फोट और आग से भारी मात्रा में धुआं और कालिख समताप मंडल में चली जाएगी। नतीजतन, इन कणों से सूर्य की किरणें परावर्तित होंगी, और ग्रह पर तापमान हर जगह आर्कटिक तक गिर जाएगा, और जीवित आबादी को नई और कठिन परिस्थितियों के अनुकूल होना होगा।


अज्ञानता और मूर्खता

किसी भी समाज के लिए सबसे कम आंका जाने वाला खतरा अज्ञानता है। (बेहोश या सचेत)निष्क्रियता और आलस्य के साथ संयुक्त। दोनों प्रकार के अज्ञान को साधन द्वारा पोषित किया जाता है संचार मीडिया- राजनेताओं और निगमों के मुख्य उपकरण।

यह "अज्ञानता का पंथ" है, यही कारण है कि 21 वीं सदी में धार्मिक कट्टरपंथी, नस्लवादी, ऐसे लोग हैं जो सत्ता की पूजा करते हैं और जो नहीं करते हैं उन सभी को राक्षसी बना देते हैं। यह व्यापक अज्ञानता के कारण है कि लोग हर जगह पाए जाते हैं जो इनकार करते हैं ग्लोबल वार्मिंगऔर व्यक्तिगत लाभ के लिए दूसरों का शोषण करते हैं।

पर " अच्छी तरह से खिलाया साल» अज्ञान बढ़ता है और शिक्षा का महत्व और आवश्यकता कम स्पष्ट हो जाती है। युवा पीढ़ी अपने पूर्वजों द्वारा बनाई गई व्यवस्था का लाभ उठाकर धीरे-धीरे भूल जाती है कि यह व्यवस्था कैसे और क्यों बनी। अंत में, अक्षम लोग बहुमत के समर्थन से सत्ता हासिल कर लेते हैं, इस प्रकार व्यवस्था की नींव को ही खतरे में डाल देते हैं।

लोकलुभावनवाद और क्षमता की कमी मानवता के लिए एक वास्तविक खतरा है। उदाहरण के लिए, यूएसए के शोधकर्ता (देश, जो इस पलपरिणामस्वरूप समृद्धि के चरम पर है तकनीकी प्रगतिऔर कुशल आर्थिक नीति 19वीं और 20वीं सदी में)कहते हैं कि इस शिखर की व्याख्या पतन की शुरुआत के रूप में की जा सकती है। कम से कम क्योंकि पूर्व उम्मीदवारअमेरिकी उप राष्ट्रपति सारा पॉलिन प्रारंभिक वैज्ञानिक सिद्धांतों से परिचित नहीं हैं।


ऊपर दिया गया आंकड़ा एक ग्राफ दिखाता है जिसमें शिक्षा के विकास को नीले रंग में और साथ में शिक्षा को लाल रंग में चिह्नित किया गया है। आर्थिक विकासप्राचीन ग्रीस के समय से लेकर आज तक। हालांकि चित्र काफी सट्टा है, ऐसे निराशावादी विचार भविष्यवादियों के बीच काफी आम हैं।

मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी में भौतिकी के प्रोफेसर मैक्स टेगमार्क भी मानते हैं कि मानव मूर्खता सभी मानव जाति की सबसे बड़ी समस्या है, और कृत्रिम बुद्धि इसका सबसे बड़ा अस्तित्वगत खतरा है। सीमित बौद्धिक कार्यप्रणाली वाले लोग, क्षमता की अनदेखी विनाशकारी परिणाम, यह मान सकते हैं कि कृत्रिम बुद्धिमत्ता मानवता को नष्ट करने में सक्षम किसी चीज़ के रूप में विकसित होगी।

मूलपाठ
आर्टेम लुचको

यह निश्चित रूप से ज्ञात है कि हमारे ग्रह पर मौजूद जीवित प्राणियों की 99% से अधिक प्रजातियां गायब हो गई हैं। और यह संभावना नहीं है कि एक व्यक्ति हमेशा के लिए जीवित रहेगा। हमारे अस्तित्व के लिए क्या खतरा है, इस बारे में सवाल पूछते हुए, हम अपने दिमाग में एक विशाल उल्कापिंड या विदेशी आक्रमणकारियों के आक्रमण के बारे में विज्ञान-फाई फिल्मों से सर्वनाशकारी चित्र बनाते हैं। लेकिन कम सिनेमाई, लेकिन काफी वास्तविक परिदृश्य हैं जिनके बारे में बहुत कम लोग सोचते हैं। हमने इस लेख में उनमें से कुछ को सूचीबद्ध करने का निर्णय लिया है।


सौर तूफान

हमारे विशाल संलयन रिएक्टर की थोड़ी सी भी खराबी - यानी सूर्य, इस तथ्य को जन्म दे सकता है कि हमारा ग्रह जीवन और उसके लिए आवश्यक सामग्री का समर्थन करने के लिए या तो बहुत ठंडा या बहुत गर्म हो सकता है: अर्थात्, एक सांस लेने वाला वातावरण और पानी में तरल अवस्था। हमारी गैलेक्सी के अधिकांश अन्य सितारों की तुलना में सूर्य काफी स्थिर तारा है, लेकिन इसका उज्ज्वल प्रवाह अपेक्षाकृत स्थिर 11 साल के चक्र में बदल जाता है। ये परिवर्तन केवल 0.1% हैं, लेकिन इस नगण्य आंकड़े का भी पृथ्वी की जलवायु पर गंभीर प्रभाव पड़ता है।

मध्यम तूफान साल में नियमित रूप से 100-150 बार आते हैं, लेकिन सौर सुपरस्टॉर्म विकसित देशों में पावर ग्रिड के एक महत्वपूर्ण हिस्से को नष्ट कर सकता है। रिकॉर्ड पर सबसे शक्तिशाली तूफान 1859 का तूफान था, जिसे कैरिंगटन इवेंट के रूप में भी जाना जाता है। कोरोनल इजेक्शन इतना शक्तिशाली था कि नॉर्दर्न लाइट्स पूरी दुनिया में, यहां तक ​​कि कैरिबियन में भी देखी गईं। एक सौर तूफान ने अमेरिकी टेलीग्राफ लाइनों को बाधित कर दिया। लेकिन 19वीं सदी के मध्य में कोई गंभीर विद्युत अवसंरचना नहीं थी, लेकिन अगर आज ऐसी कोई तबाही हुई, तो यह उच्च-वोल्टेज ट्रांसफार्मर को निष्क्रिय कर देगी और पूरे देश को बिजली के बिना छोड़ देगी, हमें सौ साल पीछे कर देगी।


गामा फट

सूर्य एकमात्र ऐसा तारा नहीं है जो हमारे ग्रह के लिए खतरा है। दूर की आकाशगंगाओं में बड़े पैमाने पर ब्रह्मांडीय ऊर्जा उत्सर्जन देखा जाता है, उन्हें गामा-किरण विस्फोट कहा जाता है। ये सबसे चमकीली विद्युत चुम्बकीय घटनाएं सुपरनोवा विस्फोट के दौरान होती हैं, जब एक तेजी से घूमता हुआ विशाल तारा न्यूट्रॉन स्टार, क्वार्क स्टार या ब्लैक होल में गिर जाता है। वहीं, एक फ्लैश के चंद सेकेंड में उतनी ही ऊर्जा निकलती है जितनी सूर्य 10 अरब साल में छोड़ता है।

इन उत्सर्जनों के स्रोत पृथ्वी से अरबों प्रकाश वर्ष की दूरी पर स्थित हैं, और हमारी गैलेक्सी में एक गामा-किरण विस्फोट एक लाख वर्षों में लगभग 1 बार होता है, लेकिन अगर यह पृथ्वी के काफी करीब होता है, तो इसके परिणाम होंगे सभी जीवित चीजों को महत्वपूर्ण रूप से प्रभावित करते हैं। 2004 के एक अध्ययन के अनुसार, लगभग 3,262 प्रकाश-वर्ष की दूरी पर एक गामा-किरण फटने से पृथ्वी की ओजोन परत का आधा हिस्सा नष्ट हो सकता है, जो कि पराबैंगनी विकिरण के खिलाफ हमारा मुख्य बचाव है। साथ ही, कमजोर ओजोन "फिल्टर" से गुजरने वाले सामान्य सौर विकिरण के साथ विस्फोट से किरणें मानव जाति के बड़े पैमाने पर विलुप्त होने का कारण बन सकती हैं।

यदि गामा-किरणों का फटना 10 प्रकाश वर्ष की दूरी पर होता है (ऐसी सीमा के भीतर हमसे लगभग 10 तारे हैं), यह आकाश के हर हेक्टेयर पर एक परमाणु बम विस्फोट के बराबर होगा, और आधे ग्रह पर सभी जीवन तुरंत नष्ट हो जाएगा, और दूसरी छमाही में थोड़ी देर बाद माध्यमिक प्रभावों के कारण।


Supervolcanoes

हमारे ग्रह की आंतों में एक गंभीर खतरा मंडरा रहा है। यह ज्ञात है कि तथाकथित सुपरवोलकैनो के विस्फोट, जिनमें से पृथ्वी पर लगभग 20 हैं, पृथ्वी पर जलवायु को बदल सकते हैं और सबसे भयानक परिणाम दे सकते हैं। एक बात अच्छी है - औसतन हर 100 हजार साल में एक बार ऐसे विस्फोट होते हैं।

सबसे खतरनाक भूमिगत बलों में से एक येलोस्टोन काल्डेरा है, जो लगभग 55 किमी 72 किमी की दूरी पर है और प्रसिद्ध राष्ट्रीय उद्यान के एक तिहाई क्षेत्र पर कब्जा करता है। वैज्ञानिकों ने पाया है कि ज्वालामुखी 640 हजार साल पहले आखिरी बार तीन बार फटा था। वैज्ञानिकों द्वारा प्रति वर्ष 0.00014% पर एक नए विशाल विस्फोट की संभावना का अनुमान लगाया गया है।

येलोस्टोन ज्वालामुखी के फटने से पूरी मानवता को खतरा है। वैज्ञानिकों के अनुसार, एक विशाल बादल समताप मंडल में फेंका जाएगा, जो लंबे समय तक लटका रह सकता है, जिससे सूर्य का प्रकाश पृथ्वी तक नहीं पहुंच पाएगा। सौर विकिरण की शक्ति को आधे से कम करने से वैश्विक फसल खराब हो जाएगी, और पृथ्वी पर खाद्य भंडार शायद ही कुछ महीनों के लिए पर्याप्त हो। पृथ्वी पर औसत वार्षिक तापमान 12 डिग्री तक गिर सकता है और 2-3 वर्षों के बाद ही अपनी मूल स्थिति में वापस आ सकता है।

अन्य छोटे ज्वालामुखी एक अलग प्रकृति के भयानक परिणामों की धमकी दे सकते हैं। उदाहरण के लिए, कैनरी द्वीपसमूह में ला पाल्मा द्वीप पर एक ज्वालामुखी, विस्फोट की स्थिति में, एक विशाल समुद्र की लहर पैदा कर सकता है जो कैरिबियन और अमेरिकी तट के विशाल क्षेत्रों में बाढ़ ला सकता है। ज्वालामुखी की ढलानों में से एक अस्थिर है, और अगर यह फटना शुरू हो जाता है, तो आधा ट्रिलियन टन वजनी चट्टान समुद्र में गिर सकती है। इससे 650 मीटर ऊंची लहर उठेगी, जिससे अटलांटिक को जल्दी से पार करना मुश्किल नहीं होगा।


वैश्विक सर्वव्यापी महामारी

हमारे ग्रह की जनसंख्या लगातार बढ़ रही है, और साथ ही, 50% से अधिक लोग शहर के निवासी हैं। अधिक जनसंख्या से उत्परिवर्तन में वृद्धि होती है, और उच्च जनसंख्या घनत्व से बीमारियों का तेजी से प्रसार होता है। जाहिर है, यह प्रवृत्ति केवल जारी रहेगी, और भविष्य में हमें नए भयानक महामारियों के उभरने की उम्मीद करनी चाहिए जो पूरे शहरों को मार सकती हैं।

साथ ही एंटीबायोटिक्स अधिक से अधिक बेकार होते जा रहे हैं, जो विश्व स्वास्थ्य संगठन को लेकर गंभीर रूप से चिंतित है। एंटीबायोटिक प्रतिरोध के उदय ने मानवता को पेनिसिलिन के आविष्कार से पहले के समय में वापस स्थापित करने की धमकी दी, जब सबसे छोटा संक्रमण घातक हो गया। डब्ल्यूएचओ के सहायक महानिदेशक कहते हैं, "कई हितधारकों द्वारा त्वरित और ठोस कार्रवाई के अभाव में, हमारी दुनिया एक ऐसे युग में प्रवेश कर रही है जहां एंटीबायोटिक्स अपनी प्रभावशीलता खो रहे हैं, और सामान्य संक्रमण और मामूली चोटें जो दशकों तक ठीक हो सकती हैं, अब फिर से मर सकती हैं।" स्वास्थ्य सुरक्षा के लिए डॉ. कीजी फुकुदा।

सामान्य तौर पर, यह कल्पना करना मुश्किल नहीं है कि एक नई प्लेग महामारी कैसे फैल जाएगी और डॉक्टरों के पास इसे रोकने का कोई तरीका नहीं होगा। हर कोई जानता है कि ब्लैक डेथ क्या है, जिसने XIV सदी के मध्य में हंगामा किया और दुनिया की लगभग आधी आबादी को नष्ट कर दिया, जिसके बाद आबादी को बहाल करने में लगभग 150 साल लग गए। एक और भयानक महामारी 1918-1919 में हुई, जब अनुमानित 50 से 100 मिलियन लोग स्पेनिश फ्लू से मर गए। (या जनसंख्या का लगभग 5%). शहरीकरण के मौजूदा स्तर और परिवहन बुनियादी ढांचे के विकास के साथ, चीजें केवल बदतर होती जाएंगी।

2010 में, महामारी विज्ञानियों की एक टीम ने निपाह वायरस का एक कंप्यूटर मॉडल बनाया, जिसके बाद उन्होंने पता लगाया कि यह कैसे फैलेगा और विकसित होगा। परिणाम रिपोर्ट कंप्यूटर सिमुलेशनफिल्म "Contagion" का आधार बनाया। इसलिए दुनिया भर में तेजी से फैल रहे अज्ञात मूल के घातक वायरस की कल्पनाएं सच हो सकती हैं।


संसाधन का क्षरण

हमारे ग्रह की आंतों में कितना तेल बचा है, यह निश्चित रूप से कोई नहीं जानता। लेकिन आशावादी पूर्वानुमानों के अनुसार, 2050 तक दुनिया के आधे तेल भंडार को पहले ही पंप कर दिया जाएगा। (जारी खुफिया जानकारी के अनुसार). “उस समय तक हम जिस पहली और सबसे अधिक दबाव वाली समस्या का सामना करेंगे, वह है सस्ते जीवाश्म ईंधन के युग का अंत। यह कहना कोई अतिशयोक्ति नहीं है कि यह सस्ते तेल और प्राकृतिक गैस के भंडार हैं जो आधुनिक समृद्ध जीवन का आधार हैं," भाग्यवादी लेखक जेम्स जी. कुन्स्टलर लिखते हैं।

तेल संकट के भयावह परिणाम होंगे, जिसके ज्यादातरदुनिया की आबादी तैयार नहीं है। और यह प्रक्रिया न केवल औद्योगिक देशों को प्रभावित करेगी। समय के साथ, जैसे-जैसे तेल तेजी से दुर्लभ होता जा रहा है, अधिक विकसित देशों को इसकी तलाश करनी होगी जहां यह अभी भी बना हुआ है - अपने कमजोर पड़ोसियों से। "अमीर" देशों द्वारा "गरीब" देशों के शोषण का एक नया चरण शुरू होगा: मध्य पूर्व और अफ्रीका में अधिक से अधिक नए सशस्त्र संघर्ष शुरू हो जाएंगे।

तेल की कमी मानव जीवन के लिए आवश्यक अन्य संसाधनों की तीव्र कमी को भड़का सकती है। जीवाश्म ईंधन पर सार्वभौमिक निर्भरता के कारण अरबों लोग भूखे रहेंगे। नतीजतन, यह सब निर्वाह खेती में वापसी का कारण बन सकता है।

शायद एक दिन मानवता तेल की सुई से उतर जाएगी और गैसोलीन को शराब से बदल देगी, जिसे मकई या गन्ने से निकाला जाएगा। हालांकि, कोई ज्ञात तरीका नहीं है जिसके द्वारा हम दुर्लभ पृथ्वी धातुओं का उत्पादन कर सकते हैं, और उनके संभावित विकल्प या तो प्रकृति में मौजूद नहीं हैं, या उनके पास अपर्याप्त गुण हैं। और इन पदार्थों के बिना, हमारे पास न तो स्मार्टफोन होंगे, न ही कंप्यूटर, न ही इलेक्ट्रिक वाहन, न ही कोई अन्य इलेक्ट्रॉनिक्स, और, तदनुसार, प्रगति।

संयुक्त राज्य अमेरिका में येल विश्वविद्यालय के वैज्ञानिकों की गणना के अनुसार, दुर्लभ पृथ्वी धातुओं के स्रोत भारी दर से समाप्त हो रहे हैं। फिलहाल, सभी दुर्लभ पृथ्वी का लगभग 95% चीन में खनन किया जाता है, और हाल ही में, इसकी सरकार ने कुछ तत्वों के निर्यात पर प्रतिबंध लगा दिया है, साथ ही गैर-चीनी उत्पादकों के लिए उनके लिए कीमत दोगुनी कर दी है।


ग्रे कीचड़

प्रौद्योगिकी के विकास के साथ, मानवता को डरना चाहिए कि ये प्रौद्योगिकियां नियंत्रण से बाहर हो जाएंगी और उनके रचनाकारों को नष्ट कर देंगी। एक काल्पनिक खतरा वह है जिसे भविष्य विज्ञानी ग्रे गू कहते हैं। (ग्रे गू)- स्व-प्रतिकृति आणविक नैनोटेक्नोलॉजी, जो मनुष्य के अधीन नहीं है।

पहली बार अमेरिकी वैज्ञानिक किम एरिक ड्रेक्सलर, जिन्हें "नैनो टेक्नोलॉजी का जनक" कहा जाता है, ने ऐसा पदार्थ बनाने की संभावना के बारे में बताया। वैज्ञानिक ने अपनी पुस्तक मशीन्स ऑफ क्रिएशन में नैनोरोबोट्स बनाने के विचार पर विचार किया। मूल विचार यह था कि सूक्ष्म मशीनों को प्रयोगशाला में डिजाइन किया जा सकता है, लेकिन यादृच्छिक रूप से उत्पन्न भी किया जा सकता है।

2010 में, डीएनए-आधारित नैनोरोबोट्स को पहली बार स्वस्थ ऊतक को अप्रभावित छोड़ते हुए कैंसर कोशिकाओं को खोजने और नष्ट करने में सक्षम होने के लिए प्रदर्शित किया गया था। लक्ष्य का पता चलने पर छोटे कैप्सूल दवाओं की आवश्यक खुराक छोड़ते हैं और उद्देश्यपूर्ण रूप से "दुश्मन" को नष्ट करते हैं। नतीजतन, यह पता चला कि ये नैनोरोबोट "मालिक" की मृत्यु के बाद एक और महीने तक मौजूद रह सकते हैं।

अब तक, निश्चित रूप से, नैनोसाइबोर्ग पूरी तरह से लोगों के लाभ के लिए विकसित किए जा रहे हैं, लेकिन सिद्धांत रूप में वे दोनों बना और नष्ट कर सकते हैं। यदि, किसी कारण से, नैनोबॉट्स जीवमंडल में प्रवेश करते हैं और अंतहीन रूप से गुणा करना शुरू करते हैं, तो वे अपनी प्रतियां बनाने के लिए सामग्री के रूप में जो कुछ भी प्राप्त कर सकते हैं, वास्तव में, वे ग्रह सहित, चारों ओर सब कुछ अवशोषित करना शुरू कर सकते हैं। उसी समय, काल्पनिक "ग्रे गू" को नष्ट करना बहुत मुश्किल होगा, क्योंकि एक जीवित प्रतिकृति इसके लिए फिर से गुणा करना शुरू करने के लिए पर्याप्त होगी। यदि ऐसा रोबोट महासागरों में गिर जाता है, तो इसे नष्ट करना असंभव होगा।


परमाणु प्रलय

जब तक दुनिया में 7 देश हैं जिनके पास परमाणु हथियार हैं, परमाणु युद्ध शुरू होने की संभावना शून्य के बराबर नहीं हो सकती है, इस तथ्य के बावजूद कि यह मानव जाति के विलुप्त होने या अंत तक हो सकता है आधुनिक सभ्यताजमीन पर। इस खतरे के कारण काफी स्पष्ट हैं: एक परमाणु विस्फोट एक विनाशकारी शॉक वेव के साथ होता है जो अपने रास्ते में सब कुछ मिटा देता है, प्रकाश विकिरण और मर्मज्ञ विकिरण जलता है, जो पदार्थ में अपरिवर्तनीय परिवर्तन का कारण बनता है। जिन लोगों को विस्फोट से सीधे महत्वपूर्ण चोटें भी नहीं आई हैं, उनके संक्रामक रोगों से मरने की बहुत संभावना है और रासायनिक विषाक्तता. आग में जलने या मलबे में दबे होने की प्रबल संभावना है।

एक परमाणु विस्फोट विद्युत चुम्बकीय क्षेत्र में गड़बड़ी का कारण बनता है, जो विद्युत और रेडियो-इलेक्ट्रॉनिक उपकरण - यानी सभी संचार लाइनों, ट्रांसफार्मर, अर्धचालक उपकरणों को अक्षम कर देगा, जिससे सभी आधुनिक तकनीकों का नुकसान होगा।

सभ्यता के सभी जोखिमों के बावजूद, विश्लेषकों का सुझाव है कि अरबों लोग अभी भी वैश्विक थर्मोन्यूक्लियर युद्ध से बचने में सक्षम होंगे। लेकिन इसके खत्म होने के बाद परमाणु सर्दी शुरू हो सकती है। व्यापक विस्फोट और आग से भारी मात्रा में धुआं और कालिख समताप मंडल में चली जाएगी। नतीजतन सूरज की किरणेइन कणों से परिलक्षित होगा, और ग्रह पर तापमान हर जगह आर्कटिक तक गिर जाएगा, और जीवित आबादी को नई कठिन परिस्थितियों के अनुकूल होना होगा।


अज्ञानता और मूर्खता

किसी भी समाज के लिए सबसे कम आंका जाने वाला खतरा अज्ञानता है। (बेहोश या सचेत)निष्क्रियता और आलस्य के साथ संयुक्त। दोनों प्रकार की अज्ञानता को मीडिया द्वारा पोषित किया जाता है - राजनेताओं और निगमों के मुख्य उपकरण।

यह "अज्ञानता का पंथ" है, यही कारण है कि 21 वीं सदी में धार्मिक कट्टरपंथी, नस्लवादी, ऐसे लोग हैं जो सत्ता की पूजा करते हैं और जो नहीं करते हैं उन सभी को राक्षसी बना देते हैं। यह व्यापक अज्ञानता के कारण है कि हर जगह ऐसे लोग हैं जो ग्लोबल वार्मिंग से इनकार करते हैं और व्यक्तिगत लाभ के लिए दूसरों का शोषण करते हैं।

"अच्छी तरह से पोषित वर्षों" में अज्ञानता बढ़ती है, और शिक्षा का महत्व और आवश्यकता कम स्पष्ट हो जाती है। युवा पीढ़ी अपने पूर्वजों द्वारा बनाई गई व्यवस्था का लाभ उठाकर धीरे-धीरे भूल जाती है कि यह व्यवस्था कैसे और क्यों बनी। अंत में, अक्षम लोग बहुमत के समर्थन से सत्ता हासिल कर लेते हैं, इस प्रकार व्यवस्था की नींव को ही खतरे में डाल देते हैं।

लोकलुभावनवाद और क्षमता की कमी मानवता के लिए एक वास्तविक खतरा है। उदाहरण के लिए, यूएसए के शोधकर्ता (एक देश जो वर्तमान में 19वीं और 20वीं शताब्दी में तकनीकी विकास और प्रभावी आर्थिक नीतियों के परिणामस्वरूप समृद्धि के शिखर पर है)कहते हैं कि इस शिखर की व्याख्या पतन की शुरुआत के रूप में की जा सकती है। यदि केवल इसलिए कि पूर्व अमेरिकी उप राष्ट्रपति पद की उम्मीदवार सारा पॉलिन प्रारंभिक वैज्ञानिक सिद्धांतों से परिचित नहीं हैं।


ऊपर दिया गया आंकड़ा एक ग्राफ दिखाता है जिसमें शिक्षा के विकास को नीले रंग में चिह्नित किया गया है, और प्राचीन ग्रीस के समय से लेकर आज तक के आर्थिक विकास को लाल रंग में चिह्नित किया गया है। हालांकि चित्र काफी सट्टा है, ऐसे निराशावादी विचार भविष्यवादियों के बीच काफी आम हैं।

मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी में भौतिकी के प्रोफेसर मैक्स टेगमार्क भी मानते हैं कि मानव मूर्खता सभी मानव जाति की सबसे बड़ी समस्या है, और कृत्रिम बुद्धि इसका सबसे बड़ा अस्तित्वगत खतरा है। सीमित बौद्धिक कार्यप्रणाली वाले लोग, संभावित विनाशकारी परिणामों की अनदेखी करते हुए, कृत्रिम बुद्धि को मानवता को नष्ट करने में सक्षम कुछ विकसित करने की अनुमति दे सकते हैं।


महीने की शुरुआत में, ग्लोबल चैलेंजेस फाउंडेशन ने अपनी पहली रिपोर्ट सबसे गंभीर खतरों पर प्रकाशित की जो मानव सभ्यता को भविष्य में सामना करना पड़ सकता है। इसमें वर्तमान खतरे और संभावित दोनों शामिल हैं। शोधकर्ता चाहते हैं कि मानवता सोचें और स्थिति को सुधारने के लिए कुछ करें, क्योंकि अभी भी समय है संभव तरीकेसमस्या समाधान।

हमारी सूची में उल्लिखित कई खतरे तकनीकी और के परिणाम हैं जीवन की परिस्थितियां, जबकि अन्य हमारे ग्रह के निर्माण और मानव जाति के उद्भव के बाद से मौजूद हैं।


वैज्ञानिकों ने लंबे समय से चेतावनी दी है कि जानवरों और पौधों की कई प्रजातियां गायब हो रही हैं। हमारे जीवन का तरीका और जानवरों के जीने का तरीका एक जटिल पारिस्थितिकी तंत्र पर निर्भर करता है, और अगर प्रजातियां गायब होने लगती हैं, तो यह अपरिवर्तनीय प्रक्रियाओं के लिए उत्प्रेरक बन जाती है जो भविष्य में और पहले से ही वर्तमान में हमें नकारात्मक रूप से प्रभावित करेगी। यहां तक ​​कि क्षेत्र द्वारा सीमित पारिस्थितिक आपदाएँवैश्विक निहितार्थ हैं।


हम इन क्षेत्रों में गलत निर्णय लेने के परिणामस्वरूप विश्व आर्थिक और राजनीतिक व्यवस्था के पतन के बारे में बात कर रहे हैं, थकावट संसाधन आधारपृथ्वी और सैन्य संघर्ष। यदि यह पृथ्वी के एक कोने में होता है, तो इसके परिणाम शेष ग्रह को प्रभावित करेंगे। शोधकर्ता अधिनायकवाद के खतरे की घोषणा करते हैं, जो बन सकता है वास्तविक खतराआज।


मानव जाति के इतिहास में, बड़े पैमाने पर ज्वालामुखी विस्फोट हुए हैं जो पर्यावरणीय और मानव निर्मित आपदाओं का कारण बने हैं। वेसुवियस के विस्फोट से पोम्पेई शहर और उसके निवासियों की मृत्यु हो गई। 3000 साल पहले ज्वालामुखी विस्फोट के कारण मिनोअन सभ्यता की मृत्यु हो गई थी। एक सुपर ज्वालामुखी वायुमंडल में इतनी राख फेंकने में सक्षम होगा कि पृथ्वी पर जलवायु परिवर्तन शुरू हो जाएगा, जिसके परिणामस्वरूप परमाणु विस्फोट. ऐसा होने की संभावना 0.0001% है।


हाल के वर्षों में, अधिक से अधिक लोगों ने वैश्विक महामारी के परिणामस्वरूप मानव जाति की मृत्यु के कारणों के बारे में चिंता करना शुरू कर दिया है। इसका प्रमाण बर्ड फ्लू से बड़ी संख्या में होने वाली मौतों को कहा जा सकता है, जो एशिया में शुरू हुआ और काफी तेजी से दुनिया भर में फैल गया। यह 2003 में सार्स को भी याद करने लायक है। यह विरोधाभासी नहीं है, बल्कि तकनीकी प्रगति है, विशेष रूप से दुनिया में परिवहन प्रणाली, दुनिया भर में बीमारी के तेजी से प्रसार और लाखों लोगों की मौत का कारण बना। अगर लोग इस तरह का सामना नहीं कर सकते हैं संक्रामक रोग, तो ग्रह की जनसंख्या में तेजी से कमी आएगी। यह संभावित रूप से संभव है, क्योंकि शोधकर्ता 0.0001% का मौका देते हैं।


65 मिलियन वर्ष पहले डायनासोर की मृत्यु के संस्करणों में से एक जमीन पर प्रभाव है बड़ा क्षुद्रग्रह. शोधकर्ताओं का दावा है कि औसतन 5 किमी तक व्यास वाला एक क्षुद्रग्रह हर 20 मिलियन वर्षों में पृथ्वी पर गिरता है। इस तरह की तबाही के परिणामस्वरूप, देश मर जाएंगे, राजनीतिक और आर्थिक प्रणाली, जलवायु बदल जाएगी और जीवित रहना असंभव हो जाएगा। घटनाओं के इस विकास के लिए शोधकर्ता 0.00013% का मौका देते हैं।


दुनिया भर में ऐसे सैन्य ठिकाने हैं जिनमें परमाणु मिसाइल प्रणालियाँ स्थापित हैं, और यह इस तथ्य के बावजूद है कि देश ग्रह पर इसकी संख्या कम करना चाहते हैं। अमेरिका और रूस के बीच तनाव पूर्वी यूरोपहाल के वर्षों में, यूक्रेन के क्षेत्र में हो रहे संकट से और अधिक बढ़ गया है, और यह आश्वस्त करता है कि परमाणु युद्ध पहले की तुलना में अधिक वास्तविक है। अगर एक व्यक्ति बटन दबाता है, तो दुनिया बर्बाद हो जाती है। जो लोग हमले से बच जाते हैं वे इसके बाद नहीं बचेंगे। परमाणु हमला पर्यावरण की स्थिति. परमाणु युद्ध शुरू होने की संभावना 0.01% है।


पीछे हाल के दशकमौसम चल रहा है बड़ा बदलाव, और शोधकर्ता उन्हें मानवता के लिए सबसे गंभीर खतरों में से एक मानते हैं। दुनिया भर में आयोजित अंतरराष्ट्रीय सम्मेलनइन मुद्दों पर, जहां कई देशों की सरकारें खतरों और इस स्थिति से बाहर निकलने के तरीकों पर चर्चा करती हैं, लेकिन वे अपनी हर बात को पूरा नहीं करती हैं। यदि जलवायु परिवर्तन होता है, तो इससे अकाल, सूखा, लोगों का बड़े पैमाने पर पलायन, समुद्र का स्तर बढ़ जाएगा, जिसके परिणामस्वरूप कई क्षेत्र निर्जन हो जाएंगे। जलवायु परिवर्तन के परिणाम गरीब देशों के जीवन में विशेष रूप से तीव्र होंगे। घटनाओं के इस तरह के विकास की संभावना 0.01% अनुमानित है और यह अगले 200 वर्षों में हो सकती है।


चूंकि मनुष्य ने पर्यावरण में प्रवेश करने वाले रोगजनकों का उत्पादन करना सीख लिया है, इसलिए एक जोखिम है कि यह एक भूमिका निभा सकता है। बुरा मजाकमानवता के साथ और इसे और इसके पारिस्थितिक तंत्र को नष्ट कर दें। जैविक हथियारों के प्रयोग को लेकर आतंकवादी विशेष रूप से चिंतित हैं। जेनेटिक इंजीनियरिंग उत्परिवर्तन और रोगजनकों से लड़ने के लिए हमारे शरीर की अक्षमता को जन्म देगी। ऐसी घटनाओं के विकसित होने की संभावना 0.01% है।


हम सब कुछ नहीं जान सकते हैं, और शोधकर्ताओं का सुझाव है कि ऐसी घटनाएं हो सकती हैं जो मानव जाति की मृत्यु का कारण बनेंगी। हमला हो सकता है विदेशी सभ्यता, शायद, वैज्ञानिकों के प्रयोग जो सभ्यता की मृत्यु का कारण बनेंगे। उदाहरण के लिए, पर्यावरण पर एरोसोल का प्रभाव पहले लोगों के लिए अज्ञात था, लेकिन आज हर कोई इससे अवगत है। भविष्य आज हो सकता है अज्ञात घटनाएंजो मानवता और यहां तक ​​कि ग्रह को भी नष्ट कर देगा। ऐसी स्थिति विकसित होने की संभावना शोधकर्ताओं द्वारा 0.1% अनुमानित है।


जटिल रोबोट और कंप्यूटर का निर्माण निस्संदेह मानव जाति की प्रगति के लिए बहुत महत्वपूर्ण है, लेकिन यह कृत्रिम बुद्धि और मनुष्यों के बीच संघर्ष का कारण भी बन सकता है। जबकि एक व्यक्ति रोबोट को नियंत्रित करता है, लेकिन सब कुछ बदल सकता है। ऐसे सैन्य रोबोट हैं जो आसपास की सभी सामग्रियों का उपयोग करके पुन: उत्पन्न और फ़ीड कर सकते हैं। इस तरह के साइबरबॉर्ग वास्तव में सभ्यता के जीवन को खतरे में डाल सकते हैं, जैसा कि उनके पास है उच्चतम डिग्रीजीवित रहना। संभावना बहुत अधिक है - 0 से 10% तक। रोबोट क्यों हैं, और वे पहले से ही मालिकों पर हमला कर रहे हैं।