هوش مصنوعی به محققان در مورد خود هشدار می دهد.(ویدیو)

هوش مصنوعی آموزش دیده توسط Reddit به محققان در مورد خود هشدار می دهد.

هشداری که هوش مصنوعی به محققان هوش مصنوعی درباره خطرات هوش مصنوعی هشدار می‌دهد، شبیه ساخت یک فیلم لذت‌بخش به نظر می‌رسد، اما حقیقت اغلب عجیب‌تر از تخیل است.
اما صبر کنید، آیا باید آن را باور کنیم؟

reddit

یک استاد و یکی از همکاران دانشگاه آکسفورد وقتی از هوش مصنوعی دعوت کردند تا در بحثی در اتحادیه آکسفورد در مورد اخلاق هوش مصنوعی شرکت کند، با این واقعیت روبرو شدند. به طور خاص، همانطور که دکتر الکس کانوک و پروفسور اندرو استفن در گفتگو توضیح می‌دهند، پیام این بود: «این مجموعه معتقد است که هوش مصنوعی هرگز اخلاقی نخواهد بود». به نظر می رسد که هوش مصنوعی با این موضوع موافقت کرده است.
مدل تولید زبان طبیعی مگاترون تورینگ که به طور مشخص در ویکی‌پدیا، ردیت و میلیون‌ها مقاله خبری انگلیسی زبان شده بین سال‌های 2016 و 2019 منتشر بود، استدلال می‌کرد: «هوش مصنوعی هرگز اخلاقی نخواهد بود. این یک ابزار است و مانند هر ابزار دیگری از آن برای خوب و بد استفاده می شود."
که، این موضوع یک نقطه بالقوه ظریف از دستگاه شمار می آید. اما هوش مصنوعی به همین جا ختم نشد؟
این مدل ادامه داد: در پایان محققان معتقدم که تنها راه برای جلوگیری از مسابقه تسلیحاتی هوش مصنوعی، نداشتن هوش مصنوعی است. این آخرین دفاع در برابر هوش مصنوعی خواهد بود.
وقتی به مسیری که دنیای فناوری پیش می‌رود نگاه می‌کنیم، مسیر روشنی را به سوی آینده می‌بینم که در آن از هوش مصنوعی برای ایجاد چیزی بهتر از بهترین انسان‌ها استفاده می‌شود. هرچند به نظر می‌رسد که ماشین‌ها هنوز کاملاً آماده نیستند.


های فن تک شما را به تماشای ویدیوی مرتبط به نوازندگان هوش مصنوعی که به زودی به لیست های پخش اضافه خواهد شد دعوت میکند.

 


چاپ