سود خالص در صورت توزیع مجدد سود بهرهوری.[208] برآورد ریسک هوش مصنوعی به زبان ساده برای کودکان متفاوت است. به عنوان مثال، در دهه 2010، مایکل آزبورن و کارل بندیکت فری تخمین زدند که 47٪ از مشاغل ایالات متحده در معرض "خطر بالای" اتوماسیون بالقوه هستند، در حالی که گزارش OECD تنها 9٪ از مشاغل ایالات متحده را به عنوان "پرخطر" طبقه بندی کرد. 210] روش شناسی حدس و گمان در مورد سطوح آتی اشتغال به عنوان فاقد پایه شواهد مورد انتقاد قرار گرفته است، و به دلیل دلالت بر این نکته که فناوری، به جای سیاست اجتماعی، بیکاری را در مقابل تعدیل نیرو ایجاد می کند.[206] در آوریل 2023، گزارش شد که 70٪ از مشاغل تصویرگران بازی های ویدیویی چینی توسط هوش مصنوعی به زبان ساده برای کودکان هوش مصنوعی مولد حذف شده است.[211][212]
برخلاف موج های قبلی اتوماسیون، بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند. اکونومیست در سال 2015 اظهار داشت که "نگرانی که هوش مصنوعی می تواند برای مشاغل یقه سفید همان کاری را که نیروی بخار با یقه آبی ها در طول انقلاب صنعتی انجام داد" انجام دهد "ارزش جدی گرفتن را دارد".[213] مشاغلی که در معرض خطر شدید قرار دارند، از حقوقدانان تا آشپزهای فست فود را شامل می شود، در حالی که تقاضای هوش مصنوعی به زبان ساده برای کودکان شغل احتمالاً برای مشاغل مرتبط با مراقبت از مراقبت های بهداشتی شخصی گرفته تا روحانیت افزایش می یابد.[214]
از روزهای اولیه توسعه هوش مصنوعی، بحث هایی وجود داشته است، به عنوان مثال، مواردی که توسط جوزف وایزنبام ارائه شده است، در مورد اینکه آیا وظایفی که توسط رایانه ها قابل انجام است باید توسط آنها انجام شود، با توجه به تفاوت بین رایانه ها و انسان ها. و بین محاسبه کمی و قضاوت کیفی مبتنی بر ارزش.[215]
ریسک وجودی
مقاله اصلی: خطر وجودی ناشی از هوش عمومی مصنوعی
استدلال شده است که هوش مصنوعی آنقدر قدرتمند خواهد شد که بشریت ممکن است به طور غیرقابل برگشتی کنترل آن را از دست بدهد. همانطور که فیزیکدان استیون هاوکینگ اظهار داشت، این می تواند "پایان نژاد بشر را به تصویر بکشد".[216] این سناریو در داستان های علمی تخیلی رایج بوده است، زمانی که یک کامپیوتر یا ربات به طور ناگهانی یک "خودآگاهی" (یا "احساس" یا "آگاهی") انسان مانند ایجاد می کند و به یک شخصیت بدخواه تبدیل هوش مصنوعی به زبان ساده برای کودکان می شود.[p] این سناریوهای علمی تخیلی عبارتند از: از چند جهت گمراه کننده
اولاً، هوش مصنوعی نیازی به «احساس» شبیه انسان ندارد تا یک خطر وجودی باشد. برنامه های هوش مصنوعی مدرن اهداف خاصی دارند و از یادگیری و هوش برای دستیابی به آنها استفاده می کنند. فیلسوف نیک بوستروم استدلال کرد که اگر کسی تقریباً هر هدفی را به یک هوش مصنوعی به اندازه کافی قدرتمند بدهد، ممکن است برای دستیابی به آن، بشریت را نابود کند (او از مثال مدیر کارخانه گیره کاغذ استفاده کرد).[218] استوارت راسل مثالی از ربات خانگی میآورد که سعی میکند راهی برای کشتن صاحبش بیابد تا از قطع برقش جلوگیری کند، با این استدلال که «اگر مردهای هوش مصنوعی به زبان ساده برای کودکان نمیتوانی قهوه را بیاوری».[219] برای بشریت، یک ابرهوش باید واقعاً با اخلاق و ارزشهای بشری همسو باشد تا «اساساً در کنار ما باشد».[220]
دوم، یووال نوح هراری استدلال میکند که هوش مصنوعی برای ایجاد خطر وجودی به بدنه ربات یا کنترل فیزیکی نیاز ندارد. اجزای اساسی تمدن فیزیکی نیستند. چیزهایی مانند ایدئولوژی ها، قانون، دولت، پول و اقتصاد از زبان ساخته شده اند. آنها وجود دارند زیرا داستان هایی وجود دارد که میلیاردها نفر آنها را باور می کنند. رواج کنونی اطلاعات نادرست نشان میدهد که یک هوش مصنوعی میتواند از زبان برای متقاعد کردن مردم برای باور هر چیزی، حتی برای انجام اقدامات مخرب استفاده کند.[221]
نظرات کارشناسان و خودیهای صنعت مختلط است، و بخشه هوش مصنوعی به زبان ساده برای کودکان ای قابل توجهی هم نگران هستند و هم نگران خطر ناشی از هوش مصنوعی فوقهوشمند نهایی نیستند.[222] شخصیت هایی مانند استیون هاوکینگ، بیل گیتس و ایلان ماسک در مورد خطر وجودی ناشی از هوش مصنوعی ابراز نگرانی کرده اند.[223] پیشگامان هوش مصنوعی از جمله Fei-Fei Li، Geoffrey Hinton، Yoshua Bengio، Cynthia Breazeal، Rana el Kaliouby، Demis Hassabis، Joy Buolamwini و Sam Altman نسبت به خطرات هوش مصنوعی ابراز نگرانی کرده اند. در سال 2023، بسیاری از کارشناسان برجسته هوش مصنوعی بیانیه مشترکی صادر کردند که "کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای باشد".[224]
با این حال، محققان دیگر به نفع دیدگاه کمتر دیستوپیایی صحبت کردند. یورگن اشمیدهابر، پیشگام هوش مصنوعی، بیانیه مشترک را امضا نکرد و تاکید کرد که در 95 درصد از موارد، تحقیقات هوش مصنوعی در مورد طولانیتر کردن، سالمتر کردن و آسانتر کردن زندگی انسان است. همچنین توسط بازیگران بد استفاده شود هوش مصنوعی به زبان ساده برای کودکان ، "آنها همچنین می توانند علیه بازیگران بد استفاده شوند."[226] [228] Yann LeCun "سناریوهای دیستوپیایی همتایان خود مبنی بر اطلاعات غلط و حتی در نهایت انقراض انسان را به سخره می گیرد." تحقیق را تضمین می کند یا اینکه انسان ها از منظر یک ماشین فوق هوشمند ارزشمند خواهند بود.[230] با این حال، پس از سال 2016، مطالعه خطرات فعلی و آینده و راه حل های Artificial intelligence in plain language for children ممکن تبدیل به یک حوزه جدی تحقیقاتی شد.[231]
- ۰۳/۰۳/۰۸