The Coming Technological Singularity: How to Survive in the Post-Human Era

قدوم المنفردة تقنية : كيف تنجوا في عصر ما بعد-البشرية

Department of Mathematical Sciences San Diego State University

قسم العلوم الرياضية جامعة ولاية سان دييغو

(c) 1993 by Vernor Vinge (Verbatim copying/translation and distribution of this entire article is permitted in any medium, provided this notice is preserved.)

(ج) 1993 بواسطة فيرنور فينج (نسخ حرفي / ترجمة وتوزيع هذا المادة بأكملها مسموح به في أي وسيط ، شريطة ذلك تم حفظ هذا الإشعار.)

This article was for the VISION-21 Symposium sponsored by NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31, 1993. It is also retrievable from the NASA technical reports server as part of NASA CP-10129. A slightly changed version appeared in the Winter 1993 issue of _Whole Earth Review_.

كان هذا المقال لندوة VISION-21 برعاية مركز ناسا لويس للأبحاث ومعهد أوهايو للفضاء ، 30-31 مارس 1993. كما يمكن استرجاعها من التقارير الفنية لوكالة ناسا الخادم كجزء من وكالة ناسا CP-10129. ظهرت نسخة تغيرت قليلا في إصدار شتاء 1993 من "مراجعة الأرض الكاملة".

Abstract

الملخص

Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended.

في خلال ثلاثون عاماً , ستكون تقانة قادرة على صنع ذكاء يفوق الذكاء البشري . وبعد تارة , ستنتهي البشرية

Is such progress avoidable? If not to be avoided, can events be guided so that we may survive? These questions are investigated. Some possible answers (and some further dangers) are presented.

هل نستطيع تجنب مثل هذا تقدم ؟ إذ كنا غير قادرين على تجنبة , هل نستطيع توجيهه لننجوا ؟ سيتم تحقيق في هذه الأسئلة , وستم تقديم بضع اجوبة محتملة و مخاطر محدقة .

_What is The Singularity?_

_ما هي المنفردة؟

The acceleration of technological progress has been the central feature of this century. I argue in this paper that we are on the edge of change comparable to the rise of human life on Earth. The precise cause of this change is the imminent creation by technology of entities with greater than human intelligence. There are several means by which science may achieve this breakthrough (and this is another reason for having confidence that the event will occur):

تسارع في تقدم تقني كان ميزة محورية لهذا القرن . انا اجادل في هذه الورقة بإننا على شفة تغير يقارن بنهوض الحياة البشرية على الأرض.وسبب هذا تغير هو إن تكنولويجا خقلت كيانات بذكاء يفوق البشرية , يوجد عدد من طرق قد يتبعها العلم للوصول لهذه نتيجة (ولهذا لدي ثقة بإن المنفردة ستحدث قريباً)

o The development of computers that are "awake" and superhumanly intelligent. (To date, most controversy in the area of AI relates to whether we can create human equivalence in a machine. But if the answer is "yes, we can", then there is little doubt that beings more intelligent can be constructed shortly thereafter.

تطوير أجهزة الحواسيب التي هي "واعية" وذات ذكاء يفوق طاقةالبشر. (حتى الآن ، يتعلق معظم الخلاف في مجال الذكاء الاصطناعى بما إذا كنا نستطيع خلق المعادلة البشرية في آلة ما. ولكن إذا كان الجواب "نعم ، يمكننا" ، فلا شك في أن الكائنات الأكثر ذكاءً يمكن بناءها بعد ذلك بوقت قصير.

o Large computer networks (and their associated users) may "wake up" as a superhumanly intelligent entity.

قد "تعي" شبكات الحواسيب الكبرى (والمستخدمين المرتبطين بها) ككيان ذكي للغاية

o Computer/human interfaces may become so intimate that users may reasonably be considered superhumanly intelligent.

قد تصبح واجهات الحواسيب / الإنسان مدمجة لدرجة تجعل المستخدمين يعتبرون خارقي ذكاء للقدر المعقول.

o Biological science may find ways to improve upon the natural human intellect.

قد تجد العلوم البيولوجية طرقًا لتحسين الفكر الإنساني الطبيعي.

The first three possibilities depend in large part on improvements in computer hardware. Progress in computer hardware has followed an amazingly steady curve in the last few decades [16]. Based largely on this trend, I believe that the creation of greater than human intelligence will occur during the next thirty years. (Charles Platt [19] has pointed out the AI enthusiasts have been making claims like this for the last thirty years. Just so I'm not guilty of a relative-time ambiguity, let me more specific: I'll be surprised if this event occurs before 2005 or after 2030.)

أول ثلاث احتمالات تعتمد على تقدم في عتاد الحواسيب , حيث هذا تقدم رسم بشكل رائع منحنى متصاعد في العقود الأخيرة . وبنائاً على هذه نزعة , أعتقد إنه سيوجد ذكاء اعظم من ذكاء البشرية مجتمعة في خلال العقود ثلاث المقبلة (أشار تشارلز بلات [19] إلى أن المتحمسين لذكاء الأصطناعي كانوا يدعون مثل هذا منذ ثلاثين عامًا. لذلك أنا لست مذنباً بغموض الوقت النسبي ، اسمح لي بمزيد من التحديد: سأفاجأ إذا حدث هذا قبل عام 2005 أو بعد عام 2030.)

What are the consequences of this event? When greater-than-human intelligence drives progress, that progress will be much more rapid. In fact, there seems no reason why progress itself would not involve the creation of still more intelligent entities -- on a still-shorter time scale. The best analogy that I see is with the evolutionary past: Animals can adapt to problems and make inventions, but often no faster than natural selection can do its work -- the world acts as its own simulator in the case of natural selection. We humans have the ability to internalize the world and conduct "what if's" in our heads; we can solve many problems thousands of times faster than natural selection. Now, by creating the means to execute those simulations at much higher speeds, we are entering a regime as radically different from our human past as we humans are from the lower animals.

ما هي تابعات هذا الحدث؟ عندما يقود تطور ذكاء اعظم من ذكاء البشرية, في الواقع سيتسارع تقدم. ولا يوجد لان يضم هذا تقدم ايجاد ذكاء اذكى من ذكاء الذي اوجده, في وهلة من زمن , افضل طريقة لصياغة الأمور هو تطور البيولوجي: الحيوانات تستطيع تأقلم مع صعوبات وبتكار الأختراعات. بنفس الوتيرة التي يستغرقها الأنتقاء طبيعي -- يعمل العالم كمحاكي خاص به في حالة الانتقاء الطبيعي. نحن البشر لدينا القدرة على استيعاب العالم وإجراء "ماذا لو" في رؤوسنا ؛ يمكننا حل العديد من المشاكل آلاف المرات أسرع من الانتقاء الطبيعي. الآن ، من خلال إيجاد الوسائل اللازمة لتنفيذ تلك المحاكاة بسرعات أعلى بكثير ، فإننا ندخل نظامًا مختلفًا جذريًا عن ماضينا البشري مثلما نحن البشر مختلفون عن الحيوانات.

From the human point of view this change will be a throwing away of all the previous rules, perhaps in the blink of an eye, an exponential runaway beyond any hope of control. Developments that before were thought might only happen in "a million years" (if ever) will likely happen in the next century. (In [4], Greg Bear paints a picture of the major changes happening in a matter of hours.)

من منظور البشرية تحدي سيكون تخلص من القواعد سابقة , ربما في لمح البصر , تطور خارج عن سيطرة ,تطورات التي ظن انها تحتاج "ملاين من سنين" (او ابدا) على الاغلاب ستحدث خلال القرن القادم(في [4] ، يرسم جريج بير صورة للتغييرات الرئيسية التي تحدث في غضون ساعات.)

I think it's fair to call this event a singularity ("the Singularity" for the purposes of this paper). It is a point where our models must be discarded and a new reality rules. As we move closer and closer to this point, it will loom vaster and vaster over human affairs till the notion becomes a commonplace. Yet when it finally happens it may still be a great surprise and a greater unknown. In the 1950s there were very few who saw it: Stan Ulam [27] paraphrased John von Neumann as saying:

أعتقد أنه من العدل وصف هذا الحدث بأنه تفرد ("المنفردة" لأغراض هذه الورقة). إنها نقطة يجب فيها تجاهل نماذجنا وقواعد وتقبل الواقائع جديدة. عندما نقترب أكثر فأكثر من هذه النقطة ، سوف يلوح في الأفق الأعمى والأثر على الشؤون الإنسانية حتى تصبح الفكرة شائعة. ومع ذلك ، عندما يحدث هذا في النهاية ، قد لا تزال هذه مفاجأة كبيرة وغير معروفة. في الخمسينيات من القرن العشرين كان هناك عدد قليل للغاية ممن رأوه: ستان أولام [27] أعاد صياغة جون فون نيومان قائلاً:

One conversation centered on the ever accelerating progress of technology and changes in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue.

تمحورت إحدى المحادثات حول التقدم المتسارع للتكنولوجيا والتغيرات في نمط حياة الإنسان ، والتي تعطي مظهرًا تقارب منفردة الأساسية في تاريخ الذي لا يمكن أن تستمر بعده الشؤون الإنسانية ، كما نعرفها.

Von Neumann even uses the term singularity, though it appears he is still thinking of normal progress, not the creation of superhuman intellect. (For me, the superhumanity is the essence of the Singularity. Without that we would get a glut of technical riches, never properly absorbed (see [24]).)

يستخدم فون نيومان مصطلح المنفردة ، على الرغم من أنه يبدو أنه ما زال يفكر في التقدم الطبيعي ، وليس خلق ذكاء فائق عن الإنسانية. (بالنسبة لي ، فإن الإنسانية الفائقة هي جوهر المنفردة. وبدون ذلك سنحصل على وفرة من الثروات التقنية ، ولا يتم استيعابها بشكل صحيح (انظر [24]).)

In the 1960s there was recognition of some of the implications of superhuman intelligence. I. J. Good wrote [10]:

في الستينيات ، كان هناك إدراك لبعض الآثار المترتبة على الذكاء الفائق. كتب I. N. Good [10]:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an "intelligence explosion," and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the _last_ invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control. ... It is more probable than not that, within the twentieth century, an ultraintelligent machine will be built and that it will be the last invention that man need make.

دع تعريف الآلة فائقة ذكاء كآلة يمكنها أن تتجاوز كل الأنشطة الفكرية لأي رجل مهما كان ذكياً. نظرًا لأن تصميم الآلات يعد أحد هذه الأنشطة الفكرية ، فإن الآلة فائقة الذكاء يمكنها تصميم آلات أفضل ؛ عندئذ سيكون هناك بلا شك "انفجار معلوماتي" ، وسيتم ترك ذكاء الإنسان بعيدًا عن الأنظار. وبالتالي فإن أول جهاز ذكي للغاية هو الاختراع الأخير الذي يحتاجه الإنسان على الإطلاق ، شريطة أن تكون الآلة مطاوعة بما يكفي لإخبارنا بكيفية التحكم بها. ... من المحتمل أكثر من غير ذلك ، خلال القرن العشرين ، سيتم بناء آلة فائقة الذكاء وأنها ستكون الاختراع الأخير الذي يحتاجه الإنسان.

Good has captured the essence of the runaway, but does not pursue its most disturbing consequences. Any intelligent machine of the sort he describes would not be humankind's "tool" -- any more than humans are the tools of rabbits or robins or chimpanzees.

لقد استحوذ Good على جوهر الهارب ، لكنه لا يتبع عواقبه الأكثر إثارة للقلق. أي آلة ذكية من النوع الذي يصفه لن تكون "أداة" للجنس البشري - أي أكثر من كون البشر ادة للأرانب أو القرود.

Through the '60s and '70s and '80s, recognition of the cataclysm spread [28] [1] [30] [4]. Perhaps it was the science-fiction writers who felt the first concrete impact. After all, the "hard" science-fiction writers are the ones who try to write specific stories about all that technology may do for us. More and more, these writers felt an opaque wall across the future. Once, they could put such fantasies millions of years in the future [23]. Now they saw that their most diligent extrapolations resulted in the unknowable ... soon. Once, galactic empires might have seemed a Post-Human domain. Now, sadly, even interplanetary ones are.

خلال الستينيات والسبعينيات والثمانينيات ، انتشر الاعتراف بالكارثة [28] [1] [30] [4]. ربما كان كتاب الخيال العلمي هم الذين شعروا بأول تأثير ملموس. بعد كل شيء ، فإن كتاب الخيال العلمي "الصعب" هم الذين يحاولون كتابة قصص محددة حول كل ما قد تفعله هذه التكنولوجيا بالنسبة لنا. شعر هؤلاء الكتاب أكثر فأكثر بجدار غير شفاف في المستقبل. ذات مرة ، يمكنهم وضع مثل هذه التخيلات ملايين السنين في المستقبل [23]. الآن رأوا أن استقراءهم الأكثر جدية أدى إلى غير معروف ... قريبًا. مرة واحدة ، ربما بدت إمبراطوريات المجرية مجال ما بعد الإنسان. الآن ، للأسف ، حتى تلك بين الكواكب.

What about the '90s and the '00s and the '10s, as we slide toward the edge? How will the approach of the Singularity spread across the human world view? For a while yet, the general critics of machine sapience will have good press. After all, till we have hardware as powerful as a human brain it is probably foolish to think we'll be able to create human equivalent (or greater) intelligence. (There is the far-fetched possibility that we could make a human equivalent out of less powerful hardware, if were willing to give up speed, if we were willing to settle for an artificial being who was literally slow [29]. But it's much more likely that devising the software will be a tricky process, involving lots of false starts and experimentation. If so, then the arrival of self-aware machines will not happen till after the development of hardware that is substantially more powerful than humans' natural equipment.)

ماذا عن "التسعينيات" و "الآلفية" و "العشرات" ، ونحن ننزلق نحو الحافة؟ كيف سينتشر نهج المنفرة عبر نظرة العالم البشري؟ لفترة من الوقت ، سيكون لدى النقاد العامين لآلة الختم صحافة جيدة. بعد كل شيء ، حتى يكون لدينا أجهزة قوية مثل دماغ الإنسان ، ربما يكون من الحماقة الاعتقاد بأننا سنكون قادرين على إنشاء ذكاء مكافئ (أو أكبر) من ذكاء بشري. (هناك احتمال بعيد المنال بأننا نستطيع صنع مكافئ بشري من أجهزة أقل قوة ، إذا كنا على استعداد للتخلي عن السرعة ، إذا كنا مستعدين للتسوية لكائن مصطنع كان بطيئًا حرفيًا [29] ، لكنه كثيرًا من المحتمل أن تكون عملية ابتكار البرنامج عملية صعبة ، تنطوي على الكثير من البدايات والتجريبات الخاطئة ، فإذا كان الأمر كذلك ، فلن يحدث وصول الأجهزة التي تدرك نفسها بنفسها إلى ما بعد تطوير الأجهزة التي تكون أقوى بكثير من الأجهزة الطبيعية للبشر. .)

But as time passes, we should see more symptoms. The dilemma felt by science fiction writers will be perceived in other creative endeavors. (I have heard thoughtful comic book writers worry about how to have spectacular effects when everything visible can be produced by the technically commonplace.) We will see automation replacing higher and higher level jobs. We have tools right now (symbolic math programs, cad/cam) that release us from most low-level drudgery. Or put another way: The work that is truly productive is the domain of a steadily smaller and more elite fraction of humanity. In the coming of the Singularity, we are seeing the predictions of _true_ technological unemployment finally come true.

ولكن مع مرور الوقت ، يجب أن نرى المزيد من الأعراض. سيتم إدراك المعضلة التي يشعر بها كتاب الخيال العلمي في المساعي الإبداعية الأخرى. (لقد سمعت أن كتاب الكتاب الهزلي يفكرون في كيفية الحصول على تأثيرات مذهلة عندما يكون بالإمكان إنتاج كل شيء مرئي من قِبل المألوف تقنيًا.) سنرى الأتمتة تحل محل الوظائف ذات المستوى العالي والأعلى. لدينا الآن أدوات (برامج الرياضيات الرمزية ، cad / cam) التي تطلقنا من معظم الكدح المنخفض المستوى. أو بعبارة أخرى: إن العمل المنتج حقًا هو مجال لجزء أصغر أصغر وأكثر ثباتًا من الإنسانية. في مجيء المنفردة ، نشهد في النهاية تنبؤات البطالة التكنولوجية الحقيقية.

Another symptom of progress toward the Singularity: ideas themselves should spread ever faster, and even the most radical will quickly become commonplace. When I began writing, it seemed very easy to come up with ideas that took decades to percolate into the cultural consciousness; now the lead time seems more like eighteen months. (Of course, this could just be me losing my imagination as I get old, but I see the effect in others too.) Like the shock in a compressible flow, the Singularity moves closer as we accelerate through the critical speed.

وأشارة اخرة تدلنا على إن المنفردة فقريبة : الأفكار تنتشر بسرعة اكبر و تصبح معتقدات بشكل اسرع. عندما بدئت بالكتابة. عندما بدأت الكتابة ، بدا من السهل جدًا التوصل إلى أفكار استغرقت عقودًا لتتغلغل في الوعي الثقافي ؛ الآن المهلة تبدو أكثر مثل ثمانية عشر شهرا. (بالطبع ، هذا قد يفقدني مخيلتي مع تقدمي في السن ، لكني أرى التأثير في الآخرين أيضًا). مثل الصدمة في التدفق القابل للضغط ، تقترب المنفردة من التقارب مع تقدمنا بسرعة كبيرة.

And what of the arrival of the Singularity itself? What can be said of its actual appearance? Since it involves an intellectual runaway, it will probably occur faster than any technical revolution seen so far. The precipitating event will likely be unexpected -- perhaps even to the researchers involved. ("But all our previous models were catatonic! We were just tweaking some parameters....") If networking is widespread enough (into ubiquitous embedded systems), it may seem as if our artifacts as a whole had suddenly wakened.

وماذا عن وصول المفردة نفسه؟ ما يمكن أن يقال من مظهرها الفعلي؟ نظرًا لأنه يتضمن فرارًا فكريًا ، فمن المحتمل أن يحدث بشكل أسرع من أي ثورة تقنية شوهدت حتى الآن. من المحتمل أن يكون الحدث المتسارع غير متوقع - ربما حتى للباحثين المعنيين. ("لكن جميع النماذج السابقة كانت مفجعة! كنا نغير بعض المعلمات ....") إذا كانت الشبكات واسعة الانتشار بما فيه الكفاية (في أنظمة مدمجة في كل مكان) ، فقد يبدو كما لو أن الأعمال الفنية ككل قد توقفت فجأة.

And what happens a month or two (or a day or two) after that? I have only analogies to point to: The rise of humankind. We will be in the Post-Human era. And for all my rampant technological optimism, sometimes I think I'd be more comfortable if I were regarding these transcendental events from one thousand years remove ... instead of twenty.

وماذا يحدث بعد شهر أو شهرين (أو يوم أو يومين) بعد ذلك؟ لديّ تشبيهات فقط للإشارة إلى: صعود البشرية. سنكون في عصر ما بعد الإنسان. وعلى الرغم من تفاؤلي التكنولوجي المتفشي ، أعتقد في بعض الأحيان أنني سأكون أكثر راحة إذا كنت فيما يتعلق بهذه الأحداث التجاوزي التي تمت إزالتها من ألف عام ... بدلاً من العشرين.

_Can the Singularity be Avoided?_

هل يمكن تجنب المفرد؟

Well, maybe it won't happen at all: Sometimes I try to imagine the symptoms that we should expect to see if the Singularity is not to develop. There are the widely respected arguments of Penrose [18] and Searle [21] against the practicality of machine sapience. In August of 1992, Thinking Machines Corporation held a workshop to investigate the question "How We Will Build a Machine that Thinks" [Thearling]. As you might guess from the workshop's title, the participants were not especially supportive of the arguments against machine intelligence. In fact, there was general agreement that minds can exist on nonbiological substrates and that algorithms are of central importance to the existence of minds. However, there was much debate about the raw hardware power that is present in organic brains. A minority felt that the largest 1992 computers were within three orders of magnitude of the power of the human brain. The majority of the participants agreed with Moravec's estimate [16] that we are ten to forty years away from hardware parity. And yet there was another minority who pointed to [6] [20], and conjectured that the computational competence of single neurons may be far higher than generally believed. If so, our present computer hardware might be as much as _ten_ orders of magnitude short of the equipment we carry around in our heads. If this is true (or for that matter, if the Penrose or Searle critique is valid), we might never see a Singularity. Instead, in the early '00s we would find our hardware performance curves begin to level off -- this caused by our inability to automate the complexity of the design work necessary to support the hardware trend curves. We'd end up with some _very_ powerful hardware, but without the ability to push it further. Commercial digital signal processing might be awesome, giving an analog appearance even to digital operations, but nothing would ever "wake up" and there would never be the intellectual runaway which is the essence of the Singularity. It would likely be seen as a golden age ... and it would also be an end of progress. This is very like the future predicted by Gunther Stent. In fact, on page 137 of [24], Stent explicitly cites the development of transhuman intelligence as a sufficient condition to break his projections.

حسنًا ، ربما لن يحدث ذلك على الإطلاق: أحيانًا أحاول أن أتخيل الأعراض التي يجب أن نتوقعها لمعرفة ما إذا كان المنفردة لن تتطور. هناك حجج مقنعة على نطاق واسع من بينروز وسيرل ضد التطبيق العملي للالآلة. في أغسطس من عام 1992 ، عقدتورشة عمل للتحقيق في سؤال "كيف سنبني آلة تفكر". كما قد تخمن من عنوان ورشة العمل ، لم يكن المشاركون داعمين بشكل خاص للحجج ضد الذكاء الآلي. في الواقع ، كان هناك اتفاق عام على أن العقول يمكن أن توجد على ركائز غير بيولوجية وأن الخوارزميات لها أهمية أساسية لوجود العقول. ومع ذلك ، كان هناك الكثير من النقاش حول قوة الأجهزة الخام الموجودة في العقول العضوية. شعرت أقلية أن أكبر أجهزة الكمبيوتر عام 1992 كانت ضمن ثلاثة أوامر من قوة الدماغ البشري. اتفق غالبية المشاركين على تقدير بأننا على بعد عشر إلى أربعين سنة من معادلة الأجهزة للعقل البشري. ومع ذلك ، كانت هناك أقلية أخرى أشارت إلى ، وتوقعت أن الكفاءة الحسابية للخلايا العصبية الفردية قد تكون أعلى بكثير مما كان يعتقد عمومًا. إذا كان الأمر كذلك ، فقد تكون أجهزة الحاسب الحالية الخاصة بنا أقل بكثير من حجم المعدات التي نحملها في رؤوسنا. إذا كان هذا صحيحًا (أو بالنسبة إلى هذا الأمر ، إذا كان نقد صالحًا) ، فلن نرى مطلقًا المنفردة. بدلاً من ذلك ، في أوائل القرن العشرين ، سنجد أن منحنيات أداء الأجهزة لدينا تبدأ في التراجع - وهذا ناتج عن عدم قدرتنا على أتمتة تعقيد أعمال التصميم اللازمة لدعم منحنيات اتجاه الأجهزة. لقد انتهى بنا الأمر مع بعض الأجهزة القوية للغاية ، ولكن دون القدرة على دفعها أكثر. قد تكون معالجة الإشارات الرقمية التجارية رهيبة ، مما يعطي مظهرًا تناظريًا حتى للعمليات الرقمية ، ولكن لا شيء "يستيقظ" أبدًا ولن يكون هناك مطلق الفكر وهو جوهر التفرد. من المحتمل أن يُنظر إليه على أنه عصر ذهبي ... وسيكون أيضًا نهاية للتقدم. هذا يشبه إلى حد كبير المستقبل الذي تنبأ به. في الحقيقة ، في الصفحة 137 من ، يشير صراحةً إلى تطور الذكاء اللاإنساني كشرط كافٍ لكسر توقعاته.

But if the technological Singularity can happen, it will. Even if all the governments of the world were to understand the "threat" and be in deadly fear of it, progress toward the goal would continue. In fiction, there have been stories of laws passed forbidding the construction of "a machine in the form of the mind of man" [12]. In fact, the competitive advantage -- economic, military, even artistic -- of every advance in automation is so compelling that passing laws, or having customs, that forbid such things merely assures that someone else will get them first.

ولكن إذا كان يمكن أن يحدث المنفردة التكنولوجي ، فسوف يحدث. حتى لو كانت جميع حكومات العالم تتفهم "التهديد" وتكون في خوف مميت منه ، فإن التقدم نحو الهدف سيستمر. في القصص الخيالية ، كانت هناك قصص لقوانين تمنع بناء "آلة في شكل ذهن الإنسان" [12]. في الواقع ، فإن الميزة التنافسية - الاقتصادية والعسكرية وحتى الفنية - لكل تقدم في الأتمتة مقنعة لدرجة أن إصدار قوانين ، أو وجود عادات ، يمنع مثل هذه الأشياء فقط يؤكد أن شخصًا آخر سيحصل عليها أولاً.

Eric Drexler [7] has provided spectacular insight about how far technical improvement may go. He agrees that superhuman intelligences will be available in the near future -- and that such entities pose a threat to the human status quo. But Drexler argues that we can embed such transhuman devices in rules or physical confinement such that their results can be examined and used safely. This is I. J. Good's ultraintelligent machine, with a dose of caution. I argue that confinement is intrinsically impractical. For the case of physical confinement: Imagine yourself confined to your house with only limited data access to the outside, to your masters.

قدم إريك دريكسلر [7] نظرة ثاقبة مذهلة حول مدى التقدم التقني الذي يمكن أن يذهب. وهو يوافق على أن الذكاء الخارق سيكون متاحًا في المستقبل القريب - وأن هذه الكيانات تشكل تهديدًا للوضع الإنساني الراهن. لكن دريكسلر يجادل بأنه يمكننا تضمين هذه الأجهزة اللاإنسانية في قواعد أو الحبس الجسدي بحيث يمكن فحص نتائجها واستخدامها بأمان. هذا هو الجهاز الفائق الذكاء لـ I. J. Good ، مع جرعة من الحذر. أنا أزعم أن الحبس غير عملي في جوهره. في حالة الحبس الجسدي: تخيل نفسك محصوراً في منزلك مع وصول محدود للبيانات فقط إلى الخارج ، إلى أسيادك.

If those masters thought at a rate -- say -- one million times slower than you, there is little doubt that over a period of years (your time) you could come up with "helpful advice" that would incidentally set you free. (I call this "fast thinking" form of superintelligence "weak superhumanity". Such a "weakly superhuman" entity would probably burn out in a few weeks of outside time. "Strong superhumanity" would be more than cranking up the clock speed on a human-equivalent mind. It's hard to say precisely what "strong superhumanity" would be like, but the difference appears to be profound. Imagine running a dog mind at very high speed. Would a thousand years of doggy living add up to any human insight? (Now if the dog mind were cleverly rewired and _then_ run at high speed, we might see something different....) Most speculations about superintelligence seem to be based on the weakly superhuman model. I believe that our best guesses about the post-Singularity world can be obtained by thinking on the nature of strong superhumanity. I will return to this point later in the paper.)

إذا فكر هؤلاء الأسياد بمعدل أقل من مليون مرة أبطأ منك ، فلا شك في أنه على مدى فترة من السنوات (وقتك) يمكن أن تتوصل إلى "نصيحة مفيدة" من شأنها أن تطلق سراحك بالمصادفة. (أنا أسمي هذا الشكل "التفكير السريع" من الذكاء الخارق "الخارقة الضعيفة". مثل هذا الكيان "الخارق للضعف" من المحتمل أن يحترق في غضون أسابيع قليلة من الوقت الخارجي. "الخارق القوي" سيكون أكثر من مجرد زيادة سرعة الساعة على العقل المكافئ للإنسان: من الصعب أن نقول على وجه التحديد كيف سيكون شكل "قوة خارقة قوية" ، لكن الفرق يبدو عميقًا. تخيل أن تدير عقلاً كلبيًا بسرعة عالية جدًا. ؟ (الآن إذا كان ذهن الكلب قد تم تجديده بذكاء وتم تشغيله بسرعة عالية ، فقد نرى شيئًا مختلفًا ....) يبدو أن معظم التكهنات حول الذكاء الخارق تستند إلى النموذج الخارق للضعف الإنساني. أعتقد أن أفضل تخميناتنا بشأن المنشور يمكن الحصول على عالم التفرد من خلال التفكير في طبيعة الإنسانية الخارقة. سأعود إلى هذه النقطة لاحقًا في الورقة.)

The other approach to Drexlerian confinement is to build _rules_ into the mind of the created superhuman entity (Asimov's Laws). I think that performance rules strict enough to be safe would also produce a device whose ability was clearly inferior to the unfettered versions (and so human competition would favor the development of the those more dangerous models). Still, the Asimov dream is a wonderful one: Imagine a willing slave, who has 1000 times your capabilities in every way. Imagine a creature who could satisfy your every safe wish (whatever that means) and still have 99.9% of its time free for other activities. There would be a new universe we never really understood, but filled with benevolent gods (though one of _my_ wishes might be to become one of them).

النهج الآخر للحبس Drexlerian هو بناء _rules_ في ذهن الكيان الخارق الذي تم إنشاؤه (قوانين Asimov's). أعتقد أن قواعد الأداء الصارمة بما يكفي لتكون آمنة ستنتج أيضًا جهازًا كانت قدرته أدنى من الإصدارات غير المقيدة بوضوح (وبالتالي فإن المنافسة البشرية ستفضل تطوير تلك النماذج الأكثر خطورة). لا يزال حلم Asimov رائعًا: تخيل عبداً راغبًا ، لديه 1000 مرة قدراتك بكل الطرق. تخيل مخلوقًا يمكنه تلبية رغباتك الآمنة (أي ما يعنيه ذلك) ولا يزال يتمتع بنسبة 99.9٪ من وقته مجانًا للأنشطة الأخرى. سيكون هناك عالم جديد لم نفهمه أبدًا ، ولكن مليء بالآلهة الخيرية (على الرغم من أن واحدة من رغبات _my_ قد تكون واحدة منها).

If the Singularity can not be prevented or confined, just how bad could the Post-Human era be? Well ... pretty bad. The physical extinction of the human race is one possibility. (Or as Eric Drexler put it of nanotechnology: Given all that such technology can do, perhaps governments would simply decide that they no longer need citizens!). Yet physical extinction may not be the scariest possibility. Again, analogies: Think of the different ways we relate to animals. Some of the crude physical abuses are implausible, yet.... In a Post-Human world there would still be plenty of niches where human equivalent automation would be desirable: embedded systems in autonomous devices, self-aware daemons in the lower functioning of larger sentients. (A strongly superhuman intelligence would likely be a Society of Mind [15] with some very competent components.) Some of these human equivalents might be used for nothing more than digital signal processing. They would be more like whales than humans. Others might be very human-like, yet with a one-sidedness, a _dedication_ that would put them in a mental hospital in our era. Though none of these creatures might be flesh-and-blood humans, they might be the closest things in the new enviroment to what we call human now. (I. J. Good had something to say about this, though at this late date the advice may be moot: Good [11] proposed a "Meta-Golden Rule", which might be paraphrased as "Treat your inferiors as you would be treated by your superiors." It's a wonderful, paradoxical idea (and most of my friends don't believe it) since the game-theoretic payoff is so hard to articulate. Yet if we were able to follow it, in some sense that might say something about the plausibility of such kindness in this universe.)

إذا كان لا يمكن منع أو حصر التفرد ، فما مدى سوء حقبة ما بعد الإنسان؟ حسنا ... سيء جدا. الانقراض الجسدي للجنس البشري هو أحد الاحتمالات. (أو كما وصفها إريك دريكسلر بتقنية النانو: بالنظر إلى كل ما تستطيع هذه التكنولوجيا فعله ، ربما تقرر الحكومات ببساطة أنها لم تعد بحاجة للمواطنين!). بعد الانقراض الجسدي قد لا يكون الأكثر رعبا. مرة أخرى ، القياس: فكر في الطرق المختلفة التي نتعامل بها مع الحيوانات. بعض الإساءات الجسدية الفادحة لا يمكن تصديقها ، ولكن .... في عالم ما بعد الإنسان ، سيكون هناك الكثير من المجالات التي ستكون فيها الأتمتة المكافئة البشرية مرغوبة: الأنظمة المدمجة في الأجهزة ذاتية الحكم ، والشياطين الذين يدركون أنفسهم في انخفاض أداء أكبر المرضى. (من المرجح أن تكون الذكاء الخارق بقوة من قبل جمعية العقل [15] مع بعض المكونات المختصة للغاية.) قد يتم استخدام بعض هذه المكافئات البشرية في أي شيء أكثر من معالجة الإشارات الرقمية. سيكونون مثل الحيتان أكثر من البشر. قد يكون البعض الآخر شبيهاً إنسانيًا جدًا ، ولكن من جانب واحد ، وهو إجراء يضعهم في مستشفى للأمراض العقلية في عصرنا. على الرغم من أن أياً من هذه الكائنات قد لا يكون بشرًا ولحمًا ، إلا أنه قد يكون أقرب الأشياء في البيئة الجديدة لما نسميه الإنسان الآن. (كان لدى IJ Good ما تقوله حول هذا الموضوع ، على الرغم من أن النصيحة قد تكون موضع نقاش في هذا التاريخ المتأخر: اقترح Good [11] "قاعدة ذهبية ميتا" ، والتي قد تتم إعادة صياغتها على أنها "عومل من أتباعك لأنك ستتعامل مع الرؤساء ". إنها فكرة رائعة ومتناقضة (ومعظم أصدقائي لا يؤمنون بها) لأن المكافأة النظرية للعبة من الصعب للغاية توضيحها. ومع ذلك ، إذا تمكنا من متابعتها ، فمن المحتمل أن نقول شيئًا ما عن مدى مصداقية مثل هذا الشفقة في هذا الكون.)

I have argued above that we cannot prevent the Singularity, that its coming is an inevitable consequence of the humans' natural competitiveness and the possibilities inherent in technology. And yet ... we are the initiators. Even the largest avalanche is triggered by small things. We have the freedom to establish initial conditions, make things happen in ways that are less inimical than others. Of course (as with starting avalanches), it may not be clear what the right guiding nudge really is:

لقد ناقشت أعلاه أننا لا نستطيع منع المنفرد ، وأن مجيئها هو نتيجة حتمية للقدرة التنافسية للبشر الطبيعية والإمكانيات الكامنة في التكنولوجيا. وحتى الآن ... نحن المبادرين. حتى أكبر انهيار جليدي ينجم عن أشياء صغيرة. لدينا الحرية في تحديد الشروط الأولية ، وجعل الأمور تحدث بطرق أقل معادية من غيرها. بالطبع (كما هو الحال مع البدء في الانهيارات الجليدية) ، قد لا يكون من الواضح ما هي الحافز التوجيهي الصحيح حقًا:

_Other Paths to the Singularity: Intelligence Amplification_

مسارات أخرى إلى المنفرد: تضخيم الذكاء

When people speak of creating superhumanly intelligent beings, they are usually imagining an AI project. But as I noted at the beginning of this paper, there are other paths to superhumanity. Computer networks and human-computer interfaces seem more mundane than AI, and yet they could lead to the Singularity. I call this contrasting approach Intelligence Amplification (IA). IA is something that is proceeding very naturally, in most cases not even recognized by its developers for what it is. But every time our ability to access information and to communicate it to others is improved, in some sense we have achieved an increase over natural intelligence. Even now, the team of a PhD human and good computer workstation (even an off-net workstation!) could probably max any written intelligence test in existence.

عندما يتحدث الناس عن خلق كائنات ذكية فوق البشر ، فإنهم يتخيلون عادةً مشروع الذكاء الاصطناعي. لكن كما لاحظت في بداية هذه الورقة ، هناك طرق أخرى إلى فوق الإنسانية. تبدو شبكات الكمبيوتر والواجهات بين الإنسان والحاسوب أكثر دهاء من الذكاء الاصطناعي ، ومع ذلك فقد تؤدي إلى المنفرد. أنا أسمي هذا النهج تضخيم الذكاء. شيء يسير بشكل طبيعي جدًا ، في معظم الحالات لم يتم حتى التعرف عليه من قِبل مطوري البرامج لما هو عليه. ولكن في كل مرة يتم تحسين قدرتنا على الوصول إلى المعلومات وإبلاغها للآخرين ، فقد حققنا زيادة في الذكاء الطبيعي إلى حد ما. حتى الآن ، من المحتمل أن يقوم فريق من محطة عمل حاسوب بشرية وجيدة لدرجة الدكتوراه (حتى محطة عمل خارج الشبكة!) بحد أقصى بحدوث أي اختبار ذكاء مكتوب.

And it's very likely that IA is a much easier road to the achievement of superhumanity than pure AI. In humans, the hardest development problems have already been solved. Building up from within ourselves ought to be easier than figuring out first what we really are and then building machines that are all of that. And there is at least conjectural precedent for this approach. Cairns-Smith [5] has speculated that biological life may have begun as an adjunct to still more primitive life based on crystalline growth. Lynn Margulis [14] has made strong arguments for the view that mutualism is the great driving force in evolution.

ومن المحتمل جدًا أن يكون تضخيم الذكاء طريقًا أسهل بكثير لتحقيق الانسانية الفائقة من الذكاء الاصطناعي النقي. في البشر ، أصعب مشاكل التنمية قد تم حلها بالفعل. يجب أن يكون البناء من داخل أنفسنا أسهل من معرفة ما نحن عليه أولاً ثم بناء آلات كلها. وهناك على الأقل سابقة تخمينية لهذا النهج. تكهن كيرنز سميث [5] بأن الحياة البيولوجية ربما تكون قد بدأت كعنصر مساعد للحياة البدائية التي لا تزال قائمة على النمو البلوري. قدمت لين مارغوليس [14] حججا قوية لوجهة النظر القائلة بأن التبادل هو القوة الدافعة الكبرى في التطور.

Note that I am not proposing that AI research be ignored or less funded. What goes on with AI will often have applications in IA, and vice versa. I am suggesting that we recognize that in network and interface research there is something as profound (and potential wild) as Artificial Intelligence. With that insight, we may see projects that are not as directly applicable as conventional interface and network design work, but which serve to advance us toward the Singularity along the IA path.

لاحظ أنني لا أقترح تجاهل بحث الذكاء الاصطناعى أو تمويله أقل. غالبًا ما يكون لما يحدث في الذكاء الاصطناعي تطبيقات في تضخيم الذكاء ، والعكس صحيح. أقترح أن ندرك أنه في بحث الشبكات والواجهة ، يوجد شيء عميق (وربما متوحش) مثل الذكاء الاصطناعي. مع هذه الرؤية ، قد نرى مشاريع لا تنطبق بشكل مباشر مثل أعمال تصميم الشبكات والشبكات التقليدية ، ولكنها تعمل على دفعنا نحو التفرد على طول مسار.

Here are some possible projects that take on special significance, given the IA point of view:

: في ما يلي بعض من المشاريع التي قد يولي الذكاء الاصطناعى اهتمام خاص

o Human/computer team automation: Take problems that are normally considered for purely machine solution (like hill-climbing problems), and design programs and interfaces that take a advantage of humans' intuition and available computer hardware. Considering all the bizarreness of higher dimensional hill-climbing problems (and the neat algorithms that have been devised for their solution), there could be some very interesting displays and control tools provided to the human team member.

أتمتة فريق الإنسان / الحاسب: خذ المشاكل التي يتم اعتبارها عادةً من أجل حل الجهاز البحت (مثل مشاكل تسلق التلال) ، وتصميم البرامج والواجهات التي تستفيد من الحدس البشري وأجهزة الكمبيوتر المتاحة. بالنظر إلى كل غرابة مشاكل تسلق التلال ذات الأبعاد الأعلى (والخوارزميات الأنيقة التي تم ابتكارها لحلها) ، يمكن أن يكون هناك بعض العروض المثيرة للاهتمام وأدوات التحكم المقدمة لعضو الفريق البشري.

o Develop human/computer symbiosis in art: Combine the graphic generation capability of modern machines and the esthetic sensibility of humans. Of course, there has been an enormous amount of research in designing computer aids for artists, as labor saving tools. I'm suggesting that we explicitly aim for a greater merging of competence, that we explicitly recognize the cooperative approach that is possible. Karl Sims [22] has done wonderful work in this direction.

تطوير التعايش بين الإنسان والحاسوب في الفن: اجمع بين قدرة التوليد الرسومي للآلات الحديثة والحساسية الجمالية للبشر. بالطبع ، كان هناك قدر هائل من الأبحاث في تصميم مساعدات الكمبيوتر للفنانين ، كأدوات لتوفير العمالة. أقترح أننا نهدف صراحة إلى دمج أكبر للكفاءات ، وأن نعترف صراحة بالنهج التعاوني الممكن. قام كارل سيمز [22] بعمل رائع في هذا الاتجاه.

o Allow human/computer teams at chess tournaments. We already have programs that can play better than almost all humans. But how much work has been done on how this power could be used by a human, to get something even better? If such teams were allowed in at least some chess tournaments, it could have the positive effect on IA research that allowing computers in tournaments had for the corresponding niche in AI.

السماح للفرق البشرية / الحاسوبية في بطولات الشطرنج. لدينا بالفعل برامج يمكنها اللعب بشكل أفضل من جميع البشر تقريبًا. ولكن ما مقدار العمل الذي تم إنجازه حول كيفية استخدام الإنسان لهذه القوة ، للحصول على شيء أفضل؟ إذا تم السماح لمثل هذه الفرق في بعض بطولات الشطرنج على الأقل ، فقد يكون لذلك تأثير إيجابي على أبحاث IA التي كان السماح لأجهزة الكمبيوتر في البطولات بها في المجال المقابل في الذكاء الاصطناعي.

o Develop interfaces that allow computer and network access without requiring the human to be tied to one spot, sitting in front of a computer. (This is an aspect of IA that fits so well with known economic advantages that lots of effort is already being spent on it.)

تطوير واجهات تتيح الوصول إلى الكمبيوتر والشبكة دون الحاجة إلى ربط الإنسان في مكان واحد ، جالسًا أمام الكمبيوتر. (هذا جانب من جوانب التدقيق الداخلي يتناسب جيدًا مع المزايا الاقتصادية المعروفة لدرجة أنه يتم بالفعل بذل الكثير من الجهد عليه).

o Develop more symmetrical decision support systems. A popular research/product area in recent years has been decision support systems. This is a form of IA, but may be too focussed on systems that are oracular. As much as the program giving the user information, there must be the idea of the user giving the program guidance.

تطوير أنظمة دعم القرار الأكثر تناسقًا. كان مجال البحث / المنتج المشهور في السنوات الأخيرة هو أنظمة دعم القرار. هذا شكل من أشكال IA ، ولكنه قد يكون شديد التركيز على الأنظمة الوهمية. بقدر ما يعطي البرنامج معلومات للمستخدم ، يجب أن تكون هناك فكرة أن يعطي المستخدم إرشادات البرنامج.

o Use local area nets to make human teams that really work (ie, are more effective than their component members). This is generally the area of "groupware", already a very popular commercial pursuit. The change in viewpoint here would be to regard the group activity as a combination organism. In one sense, this suggestion might be regarded as the goal of inventing a "Rules of Order" for such combination operations. For instance, group focus might be more easily maintained than in classical meetings. Expertise of individual human members could be isolated from ego issues such that the contribution of different members is focussed on the team project. And of course shared data bases could be used much more conveniently than in conventional committee operations. (Note that this suggestion is aimed at team operations rather than political meetings. In a political setting, the automation described above would simply enforce the power of the persons making the rules!)

استخدم شبكات المنطقة المحلية لإنشاء فرق بشرية تعمل حقًا (على سبيل المثال ، أكثر فاعلية من الأعضاء المكونين لها). هذا هو مجال "البرامج الجماعية" بشكل عام ، وهو بالفعل مسعى تجاري شائع جدًا. سيكون التغيير في وجهة النظر هنا هو اعتبار نشاط المجموعة ككائن حي. بمعنى ما ، يمكن اعتبار هذا الاقتراح هدفًا لابتكار "قواعد النظام" لمثل هذه العمليات المركبة. على سبيل المثال ، قد تتم المحافظة على تركيز المجموعة بسهولة أكبر من الاجتماعات الكلاسيكية. يمكن عزل خبرة الأفراد من الأفراد عن قضايا الأنا بحيث تركز مساهمة الأعضاء المختلفين على مشروع الفريق. وبالطبع يمكن استخدام قواعد البيانات المشتركة بشكل أكثر ملاءمة من عمليات اللجان التقليدية. (لاحظ أن هذا الاقتراح يستهدف عمليات الفريق بدلاً من الاجتماعات السياسية. في إطار سياسي ، فإن الأتمتة الموصوفة أعلاه ستفرض ببساطة سلطة الأشخاص الذين يضعون القواعد!)

o Exploit the worldwide Internet as a combination human/machine tool. Of all the items on the list, progress in this is proceeding the fastest and may run us into the Singularity before anything else. The power and influence of even the present-day Internet is vastly underestimated. For instance, I think our contemporary computer systems would break under the weight of their own complexity if it weren't for the edge that the USENET "group mind" gives the system administration and support people!) The very anarchy of the worldwide net development is evidence of its potential. As connectivity and bandwidth and archive size and computer speed all increase, we are seeing something like Lynn Margulis' [14] vision of the biosphere as data processor recapitulated, but at a million times greater speed and with millions of humanly intelligent agents (ourselves).

o استغلال الإنترنت في جميع أنحاء العالم كأداة مركبة بشرية / آلية. من بين جميع العناصر الموجودة في القائمة ، يسير التقدم في هذا بأسرع ما يمكن وقد يقودنا إلى التفرد قبل أي شيء آخر. قوة وتأثير حتى الإنترنت في الوقت الحاضر يتم التقليل من شأنها إلى حد كبير. على سبيل المثال ، أعتقد أن أنظمة الكمبيوتر المعاصرة الخاصة بنا سوف تنكسر تحت وطأة تعقيدها إذا لم تكن ميزة "عقل المجموعة" USENET تمنح إدارة النظام ودعم الأشخاص!) دليل على إمكاناته. مع زيادة الاتصال وعرض النطاق الترددي وحجم الأرشيف وسرعة الكمبيوتر ، نرى شيئًا مثل رؤية Lynn Margulis [14] للمحيط الحيوي كما تم تلخيصه في معالج البيانات ، ولكن بسرعة أكبر مليون مرة ومع الملايين من الوكلاء الأذكياء (أنفسنا) .

The above examples illustrate research that can be done within the context of contemporary computer science departments. There are other paradigms. For example, much of the work in Artificial Intelligence and neural nets would benefit from a closer connection with biological life. Instead of simply trying to model and understand biological life with computers, research could be directed toward the creation of composite systems that rely on biological life for guidance or for the providing features we don't understand well enough yet to implement in hardware. A long-time dream of science-fiction has been direct brain to computer interfaces [2] [28]. In fact, there is concrete work that can be done (and has been done) in this area: o Limb prosthetics is a topic of direct commercial applicability.

توضح الأمثلة المذكورة أعلاه البحث الذي يمكن إجراؤه في سياق أقسام علوم الكمبيوتر المعاصرة. هناك نماذج أخرى. على سبيل المثال ، سيستفيد الكثير من العمل في الذكاء الاصطناعي والشبكات العصبية من الارتباط الوثيق بالحياة البيولوجية. بدلاً من مجرد محاولة نمذجة الحياة البيولوجية وفهمها باستخدام أجهزة الكمبيوتر ، يمكن توجيه البحث نحو إنشاء أنظمة مركبة تعتمد على الحياة البيولوجية للتوجيه أو لتوفير الميزات التي لا نفهمها جيدًا حتى الآن لتنفيذها في الأجهزة. لطالما كان حلم الخيال العلمي هو توجيه الدماغ إلى واجهات الكمبيوتر [2] [28]. في الواقع ، هناك عمل ملموس يمكن القيام به (وقد تم القيام به) في هذا المجال: o الأطراف الصناعية هي موضوع قابل للتطبيق التجاري المباشر.

Nerve to silicon transducers can be made [13]. This is an exciting, near-term step toward direct communcation. o Similar direct links into brains may be feasible, if the bit rate is low: given human learning flexibility, the actual brain neuron targets might not have to be precisely selected. Even 100 bits per second would be of great use to stroke victims who would otherwise be confined to menu-driven interfaces.

يمكن صنع محولات الطاقة من العصب إلى السيليكون [13]. هذا خطوة مثيرة على المدى القريب نحو التواصل المباشر. o قد تكون الروابط المباشرة المماثلة في الأدمغة ممكنة ، إذا كان الأمر بسيطًا معدل منخفض: بالنظر إلى مرونة التعلم البشري ، الفعلي قد لا يكون من الضروري تحديد أهداف الخلايا العصبية الدماغية بدقة. حتى 100 بت في الثانية ستكون ذات فائدة كبيرة للسكتة الدماغية الضحايا الذين لولا ذلك سيقتصرون على القائمة المدفوعة واجهات.

Plugging in to the optic trunk has the potential for bandwidths of 1 Mbit/second or so. But for this, we need to know the fine-scale architecture of vision, and we need to place an enormous web of electrodes with exquisite precision. If we want our high bandwidth connection to be _in addition_ to what paths are already present in the brain, the problem becomes vastly more intractable. Just sticking a grid of high-bandwidth receivers into a brain certainly won't do it. But suppose that the high-bandwidth grid were present while the brain structure was actually setting up, as the embryo develops. That suggests:

o o التوصيل بالجذع البصري لديه القدرة على عرض نطاق ترددي يبلغ 1 ميجابت / ثانية أو نحو ذلك. لكن لهذا ، نحتاج إلى معرفة البنية الدقيقة للرؤية ، ونحتاج إلى وضع شبكة هائلة من الأقطاب الكهربائية بدقة متناهية. إذا أردنا أن يكون اتصالنا ذي النطاق الترددي العالي - بالإضافة إلى - المسارات الموجودة بالفعل في الدماغ ، فإن المشكلة تصبح أكثر صعوبة إلى حد كبير. إن مجرد لصق شبكة من أجهزة الاستقبال ذات النطاق الترددي العالي في الدماغ لن يفعل ذلك بالتأكيد. لكن لنفترض أن الشبكة ذات النطاق الترددي العالي كانت موجودة أثناء إنشاء بنية الدماغ بالفعل ، مع تطور الجنين. يقترح ذلك:

o Animal embryo experiments. I wouldn't expect any IA success in the first years of such research, but giving developing brains access to complex simulated neural structures might be very interesting to the people who study how the embryonic brain develops. In the long run, such experiments might produce animals with additional sense paths and interesting intellectual abilities.

o تجارب الأجنة الحيوانية. لا أتوقع أي نجاح ذكاء اصطناعي في السنوات الأولى من هذا البحث ، ولكن منح العقول النامية الوصول إلى الهياكل العصبية المعقدة قد يكون مثيرًا للاهتمام جدًا للأشخاص الذين يدرسون كيفية تطور الدماغ الجنيني. على المدى الطويل ، قد تنتج مثل هذه التجارب حيوانات ذات مسارات حسية إضافية وقدرات فكرية مثيرة للاهتمام.

Originally, I had hoped that this discussion of IA would yield some clearly safer approaches to the Singularity. (After all, IA allows our participation in a kind of transcendance.) Alas, looking back over these IA proposals, about all I am sure of is that they should be considered, that they may give us more options. But as for safety ... well, some of the suggestions are a little scarey on their face. One of my informal reviewers pointed out that IA for individual humans creates a rather sinister elite. We humans have millions of years of evolutionary baggage that makes us regard competition in a deadly light. Much of that deadliness may not be necessary in today's world, one where losers take on the winners' tricks and are coopted into the winners' enterprises. A creature that was built _de novo_ might possibly be a much more benign entity than one with a kernel based on fang and talon. And even the egalitarian view of an Internet that wakes up along with all mankind can be viewed as a nightmare [25].

في الأصل ، كنت آمل أن تسفر مناقشة IA هذه عن بعض الأساليب الأكثر أمانًا في المفرد. (بعد كل شيء ، يسمح IA بمشاركتنا في نوع من التجاوز). للأسف ، بالنظر إلى الوراء حول مقترحات IA هذه ، حول كل ما أنا متأكد من أنه ينبغي دراستها ، وأنها قد توفر لنا المزيد من الخيارات. لكن فيما يتعلق بالسلامة ... حسنًا ، بعض الاقتراحات مخيفة قليلاً على وجوههم. أشار أحد المراجعين غير الرسميين لي أن IA للبشر الأفراد يخلق نخبة شريرة إلى حد ما. نحن البشر نملك ملايين السنين من الحقائب التطورية التي تجعلنا نعتبر المنافسة في ضوء مميت. قد لا يكون الكثير من هذا القاتل ضروريًا في عالم اليوم ، حيث يواجه الخاسرون حيل الفائزين ويتم دمجهم في شركات الفائزين. قد يكون المخلوق الذي تم إنشاؤه _de novo_ كيانًا أكثر حميدة من كيان يستند إلى نواة وتالون. وحتى وجهة النظر المتساوية للإنترنت التي تستيقظ مع البشرية جمعاء يمكن اعتبارها كابوسًا [25].

The problem is not that the Singularity represents simply the passing of humankind from center stange, but that it contradicts some of our most deeply held notions of being. I think a closer look at the notion of strong superhumanity can show why that is.

المشكلة في المنفردة تتمثل في يمثل ببساطة وفاة الجنس البشري من وسطه ، لكنه يتناقض مع بعض مفاهيمنا العميقة حول الوجود. أعتقد أن إلقاء نظرة فاحصة على فكرة الإنسانية الفائقة القوية يمكن أن تظهر سبب ذلك.

_Strong Superhumanity and the Best We Can Ask for_

_البشرية الفائقة القوية وأفضل ما يمكن طلبه

Suppose we could tailor the Singularity. Suppose we could attain our most extravagant hopes. What then would we ask for: That humans themselves would become their own successors, that whatever injustice occurs would be tempered by our knowledge of our roots. For those who remained unaltered, the goal would be benign treatment (perhaps even giving the stay-behinds the appearance of being masters of godlike slaves). It could be a golden age that also involved progress (overleaping Stent's barrier). Immortality (or at least a lifetime as long as we can make the universe survive [9] [3]) would be achievable.

لنفترض أننا يمكن أن نفصل المنفردة. لنفترض أننا يمكن أن نحقق آمالنا العالية. ماذا نطلب بعد ذلك: أن يصبح البشر أنفسهم خلفاء لهم ، وأن أي ظلم يحدث سيخفف من معرفتنا بجذورنا. بالنسبة لأولئك الذين ظلوا دون تغيير ، فإن الهدف سيكون معاملة حميدة (ربما حتى إعطاء المتخلفين مظهر كونهم سادة العبيد الذين يقاربون الاله). يمكن أن يكون عصرًا ذهبيًا ينطوي أيضًا على تقدم (يتخطى حاجز الدعامات). سيكون الخلود (أو على الأقل العمر طالما تمكنا من نجاة الكون [9] [3]) من تحقيقه.

But in this brightest and kindest world, the philosophical problems themselves become intimidating. A mind that stays at the same capacity cannot live forever; after a few thousand years it would look more like a repeating tape loop than a person. (The most chilling picture I have seen of this is in [17].) To live indefinitely long, the mind itself must grow ... and when it becomes great enough, and looks back ... what fellow-feeling can it have with the soul that it was originally? Certainly the later being would be everything the original was, but so much vastly more. And so even for the individual, the Cairns-Smith (or Lynn Margulis) notion of new life growing incrementally out of the old must still be valid.

لكن في هذا العالم المشرق والأفضل ، أصبحت المشاكل الفلسفية نفسها مرعبة. العقل الذي يبقى بنفس القدرة لا يمكن أن يعيش إلى الأبد ؛ بعد بضعة آلاف من السنين سيبدو كأنه حلقة شريط متكررة أكثر من شخص. (الصورة الأكثر تقشعر لها الأبدان التي رأيتها في هذا هي في [17].) لكي تعيش طويلًا إلى أجل غير مسمى ، يجب أن ينمو العقل نفسه ... وعندما يصبح رائعًا بما فيه الكفاية ، وينظر إلى الوراء ... ما يمكن أن يكون لدى زملائه شعور مع الروح التي كان في الأصل؟ بالتأكيد سيكون الكيان المتأخر هو كل ما كان عليه الأصل ، لكن أكثر من ذلك بكثير. وحتى بالنسبة للفرد ، فإن فكرة Cairns-Smith (أو Lynn Margulis) عن حياة جديدة تنمو تدريجياً من العمر يجب أن تظل صالحة.

This "problem" about immortality comes up in much more direct ways. The notion of ego and self-awareness has been the bedrock of the hardheaded rationalism of the last few centuries. Yet now the notion of self-awareness is under attack from the Artificial Intelligence people ("self-awareness and other delusions"). Intelligence Amplification undercuts the importance of ego from another direction. The post-Singularity world will involve extremely high-bandwidth networking. A central feature of strongly superhuman entities will likely be their ability to communicate at variable bandwidths, including ones far higher than speech or written messages. What happens when pieces of ego can be copied and merged, when the size of a selfawareness can grow or shrink to fit the nature of the problems under consideration? These are essential features of strong superhumanity and the Singularity. Thinking about them, one begins to feel how essentially strange and different the Post-Human era will be -- _no matter how cleverly and benignly it is brought to be_.

هذه "المشكلة" حول الخلود تأتي بطرق مباشرة أكثر بكثير. لقد كانت فكرة الأنا والوعي الذاتي حجر الأساس للعقلانية القوية في القرون القليلة الماضية. ومع ذلك ، فإن فكرة الوعي الذاتي تتعرض الآن للهجوم من قبل رجال الذكاء الاصطناعي ("الوعي الذاتي والأوهام الأخرى"). تضخيم الذكاء يقلل من أهمية الأنا من اتجاه آخر. سيشمل عالم ما بعد التفرد شبكات ذات نطاق ترددي عالي للغاية. من المحتمل أن تكون قدرتهم على التواصل في النطاق الترددي المتغير ، بما في ذلك تلك التي تفوق بكثير من الكلام أو الرسائل المكتوبة ، ميزة مركزية للكيانات فوق الإنسانية بقوة. ماذا يحدث عندما يمكن نسخ أجزاء من الأنا ودمجها ، عندما يمكن أن ينمو أو يتقلص حجم الوعي الذاتي لتناسب طبيعة المشكلات قيد النظر؟ هذه هي السمات الأساسية للخرافة القوية والتفرد. بالتفكير فيها ، يبدأ المرء في الشعور بمدى غرابة ومختلفة حقبة ما بعد الإنسان - بغض النظر عن مدى ذكائه وحميته.

From one angle, the vision fits many of our happiest dreams: a place unending, where we can truly know one another and understand the deepest mysteries. From another angle, it's a lot like the worst case scenario I imagined earlier in this paper.

من زاوية واحدة ، تلائم الرؤية العديد من أسعد أحلامنا: مكان لا منتهي ، حيث يمكننا أن نعرف بعضنا البعض حقًا ونفهم أعمق الألغاز.و من زاوية أخرى ، يشبه إلى حد كبير السيناريو الأسوأ الذي تخيلته سابقًا في هذه الورقة.

Which is the valid viewpoint? In fact, I think the new era is simply too different to fit into the classical frame of good and evil. That frame is based on the idea of isolated, immutable minds connected by tenuous, low-bandwith links. But the post-Singularity world _does_ fit with the larger tradition of change and cooperation that started long ago (perhaps even before the rise of biological life). I think there _are_ notions of ethics that would apply in such an era. Research into IA and high-bandwidth communications should improve this understanding. I see just the glimmerings of this now, in Good's Meta-Golden Rule, perhaps in rules for distinguishing self from others on the basis of bandwidth of connection. And while mind and self will be vastly more labile than in the past, much of what we value (knowledge, memory, thought) need never be lost. I think Freeman Dyson has it right when he says [8]: "God is what mind becomes when it has passed beyond the scale of our comprehension."

ما هو رائي سديد؟ في الواقع , انا اعتقد بان الحقبة الجديدة مختلفة جدا لتلائم الاطار تقليدي للخير وشر. يعتمد هذا الإطار على فكرة إن العقول معزولة , جامدة والمتصلة بروابط ضعيفة وبطيئة في نقل المعلومات . لكن ما بعد المنفردة. يتلاءم العالم مع تقليد التغيير والتعاون الأوسع الذي بدأ منذ فترة طويلة (ربما حتى قبل ظهور الحياة البيولوجية). أعتقد أن هناك مفاهيم أخلاقية تنطبق في مثل هذه الحقبة. البحث في IA والاتصالات ذات النطاق الترددي العالي يجب أن يحسن هذا الفهم. أرى فقط بريق هذا الآن ، في قاعدة Good's Meta-Golden ، وربما في قواعد تمييز الذات عن الآخرين على أساس النطاق الترددي للاتصال. وعلى الرغم من أن العقل والنفس سيكونان أكثر قابلية للتوسّع مقارنةً بالماضي ، إلا أن الكثير مما نقدره (المعرفة ، الذاكرة ، الفكر) لا يجب أن يضيع أبدًا. أعتقد أن فريمان دايسون كان على صواب عندما قال [8]: "الله هو ما يصبح العقل عندما يتجاوز نطاق فهمنا".