هوش مصنوعی آموزش دیده توسط Reddit به محققان در مورد خود هشدار می دهد.
هشداری که هوش مصنوعی به محققان هوش مصنوعی درباره خطرات هوش مصنوعی هشدار میدهد، شبیه ساخت یک فیلم لذتبخش به نظر میرسد، اما حقیقت اغلب عجیبتر از تخیل است.
اما صبر کنید، آیا باید آن را باور کنیم؟
یک استاد و یکی از همکاران دانشگاه آکسفورد وقتی از هوش مصنوعی دعوت کردند تا در بحثی در اتحادیه آکسفورد در مورد اخلاق هوش مصنوعی شرکت کند، با این واقعیت روبرو شدند. به طور خاص، همانطور که دکتر الکس کانوک و پروفسور اندرو استفن در گفتگو توضیح میدهند، پیام این بود: «این مجموعه معتقد است که هوش مصنوعی هرگز اخلاقی نخواهد بود». به نظر می رسد که هوش مصنوعی با این موضوع موافقت کرده است.
مدل تولید زبان طبیعی مگاترون تورینگ که به طور مشخص در ویکیپدیا، ردیت و میلیونها مقاله خبری انگلیسی زبان شده بین سالهای 2016 و 2019 منتشر بود، استدلال میکرد: «هوش مصنوعی هرگز اخلاقی نخواهد بود. این یک ابزار است و مانند هر ابزار دیگری از آن برای خوب و بد استفاده می شود."
که، این موضوع یک نقطه بالقوه ظریف از دستگاه شمار می آید. اما هوش مصنوعی به همین جا ختم نشد؟
این مدل ادامه داد: در پایان محققان معتقدم که تنها راه برای جلوگیری از مسابقه تسلیحاتی هوش مصنوعی، نداشتن هوش مصنوعی است. این آخرین دفاع در برابر هوش مصنوعی خواهد بود.
وقتی به مسیری که دنیای فناوری پیش میرود نگاه میکنیم، مسیر روشنی را به سوی آینده میبینم که در آن از هوش مصنوعی برای ایجاد چیزی بهتر از بهترین انسانها استفاده میشود. هرچند به نظر میرسد که ماشینها هنوز کاملاً آماده نیستند.
های فن تک شما را به تماشای ویدیوی مرتبط به نوازندگان هوش مصنوعی که به زودی به لیست های پخش اضافه خواهد شد دعوت میکند.