اریک اشمیت: هوش مصنوعی به اندازه سلاحهای هستهای خطرناک است
اریک اشمیت، مدیر اجرایی سابق گوگل، هوش مصنوعی را به اندازه سلاحهای هستهای خطرناک خوانده است.
اریک اشمیت در سخنرانی خود در مجمع امنیتی آسپن در اوایل هفته جاری گفت که او «در مورد تاثیر کاری که انجام میدادند ساده لوح بوده است.»، اما این اطلاعات «بسیار قدرتمندند» و «دولت و سایر نهادها باید فشار بیشتری را بر فناوری اعمال کنند تا با ارزشهای اخلاقیمان هماهنگ شوند.»
«زور و قدرتی که فناوری در اختیار دارد بسیار بسیار واقعی است. به این موضوع فکر کنید که چگونه میتوانیم در مورد توافقنامه هوش مصنوعی مذاکره کنیم؟ ابتدا باید دستاندرکارانی در فناوری داشته باشید که آگاه باشند چه اتفاقهایی خواهد افتاد و از سوی دیگر، خود شما باید درباره خطرات آن آگاهی داشته باشید. فرض کنید میخواهیم با چین درباره نوعی معاهده درباره شگفتیهای هوش مصنوعی گفتوگو کنیم. این بسیار معقول و منطقی است. اما چگونه آن را انجام دهیم؟ چه کسی در دولت آمریکا با ما کار خواهد کرد؟ و حتی در طرف چینی اوضاع بدتر است؟ چه کسی را خطاب قرار دهیم؟»
ما به مذاکراتی نیاز داریم که هنوز آمادگیاش را نداریم.
«ما بالاخره در دهههای ۵۰ و ۶۰ میلادی موفق شدیم دنیایی را به وجود آوریم که در آن قانون «غافلگیر نشدن» درباره آزمایشهای هستهای وجود داشت و در نهایت این سلاحها ممنوع شدند. این مورد نمونهای است از تعادل میان اعتماد، یا اعتماد نداشتن، این یک قانون «غافلگیر نشدن» است.»
«من بسیار نگرانم که نگاه ایالات متحده به چین بهعنوان یک حکومت فاسد یا کمونیست یا هر چیز دیگری، و دیدگاه چینیها به آمریکا بهعنوان یک حکومت شکستخورده… به مردم اجازه دهد که بگویند «اوه خدای من، آنها حتما نقشهای دارند» و سپس شروع کنند به یک جور معما ساختن و مسئله را پیچیده بغرنجتر کنند…. چون در حال مسلح شدن یا آماده کردن خودتاناید، پس در این صورت، طرف مقابل را به اقدام متقابل تحریک میکنید.»
قابلیتهای هوش مصنوعی طی سالها به دفعات بیان شده است و حتی بیش از حد در اینباره صحبت شده است. ایلان ماسک، مدیر اجرایی تسلا، اغلب گفته است که هوش مصنوعی به احتمال بالا تهدیدی برای انسان است. اخیرا گوگل هم یک مهندس نرمافزار را اخراج کرده است که ادعا کرده بود هوش مصنوعی به خودآگاهی رسیده است و دارای ادراک است.
با این حال، کارشناسان اغلب به مردم یادآوری کردهاند که مسئله هوش مصنوعی این است که برای چه چیزی آموزش داده شده و انسانها چگونه از آن استفاده میکنند. اگر الگوریتمهایی که این سیستمها را آموزش میدهند مبتنی بر دادههای ناقص، نژادپرستانه یا تبعیض جنسیتی باشند، نتایج هم در نهایت همین موارد را منعکس خواهد کرد.اریک اشمیت
0 دیدگاه