چرا آدم فضاییها را پیدا نمیکنیم؟ چون هوش مصنوعی اجازه نمیدهد!
تاریخ انتشار: ۲۷ فروردین ۱۴۰۳ | کد خبر: ۴۰۱۲۹۲۱۶
به گزارش خبرآنلاین، مقالهای که اخیرا توسط «مایکل گرت»(Michael Garrett) استاد اخترفیزیک «دانشگاه منچستر»(University of Manchester) نوشته شده، نشان میدهد هوش مصنوعی ممکن است توضیحی برای این پرسش باشد که چرا ما هنوز با تمدنهای پیشرفته فناوری در نقاط دیگر جهان روبهرو نشدهایم.
فرضیههای زیادی برای توضیح دادن این پرسش وجود دارند که چرا ستارهشناسان هیچ نشانهای را مبنی بر وجود حیات بیگانه در مجموعه وسیعی از دادههای نجومی جمعآوریشده در ۶۰ سال گذشته کشف نکردهاند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به نقل از ایسنا، گرت استدلال میکند که هوش مصنوعی میتواند یک فیلتر قوی باشد. استدلال گرت این است که روبهرو شدن هر تمدنی با یک مانع جهانی یا چالش غیر قابل عبور، مانع از ظهور حیات هوشمند میشود.
به گفته گرت، هوش مصنوعی میتواند مسئول فقدان تمدنهای فناورانه پیشرفته باشد زیرا این فیلتر پیش از آن ظاهر میشود که یک تمدن بتواند به سفر چندسیارهای دست یابد. نکته ناامیدکنندهتر این که استدلال گرت نشان میدهد طول عمر معمول هر تمدن فنی کمتر از ۲۰۰ سال است.
با وجود این، همه ماجرا با غم و اندوه همراه نیست زیرا هوش مصنوعی مزایایی هم دارد.
مزایا و خطرات ابرهوش مصنوعیهوش مصنوعی در مقایسه با سایر فناوریهای بالقوه مخرب، در مقیاسهای زمانی بیسابقهای توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام میشود و اساسا نحوه تعامل ما را با فناوری تغییر میدهد.
ظاهرا هیچ حوزهای، از مراقبتهای بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی دستنخورده باقی نمانده است. گرت نوشت: فکر کردن به حوزهای که هنوز با ظهور هوش مصنوعی روبهرو نشده باشد، دشوار است.
هوش مصنوعی مانند هر فناوری دیگری، با وجود همه خوبیهای بالقوهای که ممکن است داشته باشد، پتانسیل بسیار بالایی را برای آسیب رساندن دارد. گرت اظهار داشت: جای تعجب نیست که انقلاب هوش مصنوعی، نگرانیهای جدی را در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، سوگیری در الگوریتمها، تبعیض، شفافیت، تحولات اجتماعی، پاسخگویی، حفظ حریم خصوصی و تصمیمگیری اخلاقی ایجاد کرده است.
اگرچه این نگرانیهای اخلاقی و اجتماعی مستلزم بررسی جدی هستند اما گرت استدلال میکند که ممکن است آنها عوامل موثر در سقوط تمدن نباشند. در سال ۲۰۱۴، «استیون هاوکینگ»(Stephen Hawking) فقید به طور آشکار هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل را به دست بیاورد، خود را دوباره با سرعت فزایندهای طراحی کند و به ابرهوش مصنوعی تبدیل شود، به نوع بشر پایان خواهد داد. گرت خاطرنشان کرد: جامعه بشری به سرعت به یک قلمرو ناشناخته رانده شده است.
علاوه بر ترس در مورد سلاحسازی ابرهوش مصنوعی، گرت استدلال کرد که سرعت فرآیندهای تصمیمگیری هوش مصنوعی میتواند تضادها را تشدید کند تا از اهداف اصلی بسیار فراتر برود. وقتی این سیستمهای هوش مصنوعی دیگر برای وجود داشتن نیازی به حمایت تمدنهای بیولوژیکی نداشته باشند، چه اتفاقی رخ خواهد داد؟
گرت نوشت: پس از رسیدن به تکینگی فناورانه، سیستمهای ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی میگیرند و با سرعتی تکامل مییابند که کاملا از مکانیسمهای نظارت سنتی عبور می کنند و به بروز پیامدهای پیشبینینشده و ناخواستهای منجر میشوند که بعید است با علایق بیولوژیکی یا اخلاقیات همسو باشند.
وی افزود: عملی بودن حفظ موجودات زیستی با نیازهای گسترده آنها به منابعی مانند انرژی و فضا ممکن است بر کارآیی محاسباتی متمرکز نباشد و موجب شود که هوش مصنوعی به آنها مانند یک مزاحم نگاه کند.
این در واقع یک ایده نگرانکننده است و نابودگران هوش مصنوعی به این سمت متمایل میشوند اما در حال حاضر بدترین سناریو را نشان میدهد.
نقش حیاتی تنظیماتحقیقت این است که ما قلمرو ناشناخته هوش مصنوعی را میپیماییم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره با آن روبهرو هستیم، هنوز در چارچوب محدودیتهای ایجادشده توسط انسان عمل میکند و لازم است بدانیم که ما هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.
گرت باور دارد که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابرهوش مصنوعی فوق هوشمند، سفر چندسیارهای است تا انسان به یک گونه بیولوژیکی چندسیارهای تبدیل شود و بتواند از تجربیات خود در سیارات گوناگون استفاده کند، راهبردهای بقای خود را متنوع سازد و از شکست جلوگیری به عمل آورد.
با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفر فضایی، این راه حل محتمل یا واقعبینانه به نظر نمیرسد. گرت نوشت: این به طور طبیعی ما را به سوی موضوع پیچیده تنظیم و کنترل هوش مصنوعی هدایت میکند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن فنی ما بلکه همه تمدنهای فنی باشد.
وی افزود: اگرچه ذینفعان صنعت، سیاستگذاران، کارشناسان و دولتها پیشتر هشدار دادهاند که ایجاد مقررات لازم است اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالشبرانگیز خواهد بود.
با وجود این، وضع مقررات برای هوش مصنوعی غیر ممکن نیست. پیامدهای تصمیمگیری مستقل هوش مصنوعی اخیرا به شکلگیری درخواستهایی برای توقف توسعه هوش مصنوعی تا زمانی منجر شدهاند که یک شکل مسئولانه از کنترل و مقررات معرفی شود.
با توجه به اولویتهای متفاوت فرهنگی، اقتصادی و اجتماعی ملل گوناگون، مشکلاتی در تدوین یک مجموعه جهانی از مقررات وجود خواهد داشت. علاوه بر این، پیشرفت سریع هوش مصنوعی احتمالا از چارچوب نظارتی توافقشده پیشی میگیرد و این نگرانی را ایجاد میکند که چارچوبها همیشه از پیشرفتهای جدید و پیشبینینشده در این زمینه عقبتر باشند.
با نگاه کردن به آینده ممکن است بتوانیم دیدگاه بهتری را نسبت به چالشهای کنونی خود به دست آوریم. گرت نوشت: با بررسی احتمالات درباره تمدنهای بیگانه، این آزمایش فکری به ما کمک میکند تا به پایداری بلندمدت تمدن خود بیندیشیم، خطرات بالقوهای را که با آنها روبهرو هستیم بشناسیم و درباره چگونگی غلبه کردن بر چالشهای آینده فکر کنیم.
۵۸۵۸
برای دسترسی سریع به تازهترین اخبار و تحلیل رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید. کد خبر 1895358منبع: خبرآنلاین
کلیدواژه: موجودات فضایی هوش مصنوعی حیات فرازمینی ابرهوش مصنوعی هوش مصنوعی روبه رو
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.khabaronline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرآنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۲۹۲۱۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
دانشگاههای ایران اجازه ورود نیروهای امنیتی به دانشگاه را نمیدهد
محمد علی زلفی گل در اجتماع دانشجویان مقابل دانشگاه تهران در انتقاد به رفتار دولتهای غربی نسبت به اعتراض دانشگاهیان به جنایتهای رژیم صهیونیستی تاکید کرد:ای دنیا حرمت دانشگاههای ما در عین آزاداندیشی را ببینید، قانون جمهوری اسلامی اجازه ورود نیروهای امنیتی و انتظامی به داخل دانشگاهها را منع کرده است، قانون جمهوری اسلامی اجازه ورود نیروهای نظامی و انتظامی را به داخل دانشگاهها نمیدهد.
وی در ادامه تصریح کرد: در حالی که ما دیدیم که چگونه نیروهای نظامی و امنیتی کشورهایی که ادعای حقوق بشر دارند و خود را مهدی آزادی بیان میدانند، دیدید چگونه با دانشجویان معترض، حق گو و حق طلب برخورد میکنند.ای مردم جهان ببینید و برای قوانین پیشرفته جمهوری اسلامی احترام ویژه قائل شوید.ای مردم دنیا و جامعه دانشگاهی دنیا ببینید در جمهوری اسلامی جامعه فهیم و فرهیخته دانشگاهی از چنان حرمتی برخوردار است که محیط دانشگاهها نیروهای امنیتی در بدترین شرایط اجازه ورود ندارند و خودتان را با جمهوری اسلامی مقایسه کنید که از چه آزادیهای برخوردار است.
وزیر علوم تاکید کرد:ای مردم جهان ببینید و مقایسه کنید که جمهوری اسلامی برای آزاداندیشی، حق گویی و حق طلبی چه حرمتی قائل است و کشورهای سلطه گر که ادعای آزادی، دمکراسی و حقوق بشر دارند، چگونه برخورد میکنند. ما از وجدان بیدار جامعه جامعه دانشگاهی، استادان و دانشجویان سراسر دنیا به ویژه آمریکا، فرانسه، استرالیا، کشورهای عربی که حاضر شدند از مظلوم دفاع کردند و با ظلم مقابله میکنند سپاسگزاریم و وجدان بیدار شما را تمام قد میستاییم و تمام قد با شما در عرصه حضور داریم.
زلفی گل خاطرنشان کرد:ای مردم دنیا و سازمان ملل اعتراض جامعه فرهیخته را ببین و در مقابل ظلم و ستم از خود حساسیت نشان بده از جامعه دانشگاهی بیاموز در مقابل ستم و در حمایت از ستم دیدگان به میدان بیا و در اسرع وقت تصمیماتی بگیر تا در آینده شرمنده نباشی.ای مردم آزاده دنیا به میدان بیایید در مقابل ظلم؛ ستم، کودک کشی، کشته شدن غیرنظامیان بایستید اگر دیر تصمیم بگیرید در آینده شرمنده دنیا و مردم ستم دیده غزه خواهید شد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری