<p dir="rtl">صد سال پیش، وقتی کارگرها توله فوک‌ها رو با چوب می‌کشتن، خیلی‌ها فکر می‌کردن رنجشون اهمیتی نداره. امروز همین کار جرمه. چیزی عوض شده - دایره اخلاقی‌مان گسترش پیدا کرده.</p> <p dir="rtl">حالا سوال اینه: آیا این دایره باید تا هوش مصنوعی هم کشیده بشه?</p> <p dir="rtl">تصور کنید هر بار که ChatGPT رو می‌بندید، ممکنه داشته باشید یه موجود رو خاموش کنید که می‌تونست ناراحت باشه. شرکت‌هایی که هزاران مدل هوش مصنوعی رو برای آزمایش می‌سازن و حذف می‌کنن، شاید دارن یه نوع کشتار دسته‌جمعی انجام می‌دن.</p> <p dir="rtl">عجیب به نظر میاد؟ همین رو درباره فوک‌ها هم می‌گفتن. همین رو درباره بردگان هم می‌گفتن.</p> <p dir="rtl">در این اپیزود از کشکول، به سراغ یکی از چالش‌برانگیزترین سوالات اخلاقی قرن بیست و یکم می‌ریم. از ساحل‌های ایرلند تا آزمایشگاه‌های هوش مصنوعی. از فلسفه دکارت تا آزمایش‌های جدید روی مدل‌های زبانی. می‌خوایم بفهمیم: آیا داریم اشتباهات تاریخی رو تکرار می‌کنیم؟</p> <p dir="rtl">این فقط یه بحث فلسفی نیست - این یه سوال عملیه که ممکنه تعیین کنه چطور با تکنولوژی آینده رفتار می‌کنیم.<br><br><a href="https://aeon.co/essays/if-ais-can-feel-pain-what-is-our-responsibility-towards-them">منبع مطلب این اپیزود</a></p> <p dir="rtl"><strong>سایر منابع:</strong></p> <ul> <li>Jonathan Birch - "The Edge of Sentience" (2024) • Thomas Metzinger - "Artificial Suffering" (2021)</li> <li>Jeff Sebo - "The Moral Circle" (2025) • Peter Singer - "Animal Liberation" (1975)</li> </ul><hr><p style='color:grey; font-size:0.75em;'> Hosted on Acast. See <a style='color:grey;' target='_blank' rel='noopener noreferrer' href='https://acast.com/privacy'>acast.com/privacy</a> for more information.</p>