Can we instruct AIs to steer the future as we desire? What goals should we program into them? It turns out this question is difficult to answer! Philosophers have tried for thousands of years to define an ideal world, but there remains no consensus. The prospect of goal-driven, smarter-than-human AI gives moral philosophy a new urgency. The future could be filled with joy, art, compassion, and beings living worthwhile and wonderful lives—but only if we’re able to precisely define what a “good” world is, and skilled enough to describe it perfectly to a computer program.
AIs, like computers, will do what we say—which is not necessarily what we mean. Such precision requires encoding the entire system of human values for an AI: explaining them to a mind that is alien to us, defining every ambiguous term, clarifying every edge case. Moreover, our values are fragile: in some cases, if we mis-define a single piece of the puzzle—say, consciousness—we end up with roughly 0% of the value we intended to reap, instead of 99% of the value.
Though an understanding of the problem is only beginning to spread, researchers from fields ranging from philosophy to computer science to economics are working together to conceive and test solutions. Are we up to the challenge?
A mathematician by training, Armstrong is a Research Fellow at the Future of Humanity Institute (FHI) at Oxford University. His research focuses on formal decision theory, the risks and possibilities of AI, the long term potential for intelligent life (and the difficulties of predicting this), and anthropic (self-locating) probability. Armstrong wrote Smarter Than Us at the request of the Machine Intelligence Research Institute, a non-profit organization studying the theoretical underpinnings of artificial superintelligence.
ترجمه فارسی (ترجمه ماشینی)
وقتی ماشین ها از انسان ها باهوش تر می شوند چه اتفاقی می افتد؟ ترمیناتورهای چوب بری را فراموش کنید. قدرت هوش مصنوعی (AI) ناشی از هوش آن است، نه قدرت فیزیکی و تفنگ های لیزری. انسانها آینده را هدایت میکنند نه به این دلیل که قویترین یا سریعترین هستیم، بلکه به این دلیل که باهوشترین هستیم. وقتی ماشینها از انسانها باهوشتر شوند، فرمان را به آنها میدهیم. این ماشینهای قدرتمند چه وعدهها و خطراتی خواهند داشت؟ کتاب جدید استوارت آرمسترانگ این سوالات را با وضوح و هوشمندی بررسی میکند.
آیا میتوانیم به هوش مصنوعی دستور دهیم که آینده را همانطور که میخواهیم هدایت کنند؟ چه اهدافی را باید در آنها برنامه ریزی کنیم؟ به نظر می رسد پاسخ به این سوال دشوار است! فیلسوفان هزاران سال تلاش کرده اند تا جهان ایده آلی را تعریف کنند، اما اتفاق نظری وجود ندارد. چشم انداز هوش مصنوعی مبتنی بر هدف و باهوش تر از انسان، به فلسفه اخلاق فوریت جدیدی می بخشد. آینده میتواند مملو از شادی، هنر، شفقت و موجوداتی باشد که زندگی ارزشمند و شگفتانگیزی دارند – اما فقط در صورتی که بتوانیم دقیقاً تعریف کنیم که دنیای “خوب” چیست و به اندازه کافی مهارت داشته باشیم که آن را به طور کامل با یک برنامه کامپیوتری توصیف کنیم.
هوش مصنوعی، مانند رایانه ها، آنچه را که ما می گوییم انجام می دهند – که لزوماً منظور ما نیست. چنین دقتی مستلزم رمزگذاری کل سیستم ارزشهای انسانی برای یک هوش مصنوعی است: توضیح آنها برای ذهنی که برای ما بیگانه است، تعریف هر اصطلاح مبهم، روشن کردن هر لبه موردی. علاوه بر این، ارزشهای ما شکننده هستند: در برخی موارد، اگر تکهای از پازل را به اشتباه تعریف کنیم – مثلاً آگاهی – به جای 99 درصد ارزش، تقریباً 0٪ از ارزشی را که قصد برداشت داشتیم به دست میآوریم.
اگرچه درک این مشکل تازه در حال گسترش است، اما محققان از حوزههای مختلف از فلسفه گرفته تا علوم کامپیوتر و اقتصاد با هم کار میکنند تا راهحلهایی را تصور و آزمایش کنند. آیا ما آماده چالش هستیم؟
آرمسترانگ یک ریاضیدان با تحصیلات، پژوهشگر موسسه آینده بشریت (FHI) در دانشگاه آکسفورد است. تحقیقات او بر نظریه تصمیم گیری رسمی، خطرات و احتمالات هوش مصنوعی، پتانسیل طولانی مدت برای زندگی هوشمند (و دشواری های پیش بینی آن) و احتمال انسان گرایی (خودمکان) متمرکز است. آرمسترانگ به درخواست مؤسسه تحقیقاتی هوش ماشینی، یک سازمان غیرانتفاعی که در حال مطالعه زیربنای نظری ابر هوش مصنوعی است، کتاب «هوشمندتر از ما» را نوشت.
نقد و بررسیها
هنوز بررسیای ثبت نشده است.