Add your content here
Add your content here

یک سایت دیگر با وردپرس فارسی

یک سایت دیگر با وردپرس فارسی


در 11 ژانویه 2021 ، هنگامی که سرویس چت بات هوش مصنوعی ایرودا (AI) پس از 21 روز متوقف شد ، هواداران ایرودا اشک ریختند. این یک عبارت استعاری نیست. چندین نفر گریه های خود را ضبط کردند و برای به یاد آوردن آنها روی صفحه اعلانات نظر دادند. یک جنبه مضحک وجود دارد ، اما نیت خوب برای خداحافظی از Eruda ، که فقط یک ماشین است ، باید صادقانه باشد.

موفقیت را به عنوان یک بازی به اشتراک بگذارید

“زنی 20 ساله که رنگ های سیاه و صورتی را دوست دارد.” سازنده ‘Scatter Lab’ شخصیتی خاص به Chatbot Iruda بخشید و او را به شخصیتی شبیه انسان تبدیل کرد. به همین دلیل مراسم یادبود ادامه یافت و مسئله آزار و اذیت جنسی مطرح شد. در واقع ، چت بات ها نوعی سرویس هوش مصنوعی هستند که برای ایجاد “شخصیتی” که باعث می شود ماشین ها احساس انسان کنند ، مناسب است. دلیل این امر آنست که تخیل “هر چیزی که می تواند با آن ارتباط برقرار شود” می تواند به راحتی این تخیل را القا کند که فقط با متن با کاربران برخورد کند. به ویژه ، Eruda به عنوان “بات چت که می تواند بدون هدف آزادانه ارتباط برقرار کند” شناخته می شد و محبوب نوجوانان بود. اطلاعات مربوط به مجموعه 10 میلیارد تماس در KakaoTalk و 1 میلیارد تماس LINE كه ScatterLab در اختیار دارد ، راز حفظ تماس های طبیعی بود. Eruda در جستجوی بهترین پاسخ از پایگاه داده خود و مقایسه احساسات با کلمات کاربر ، ضمن ترسیم مکالمات مداوم از کاربران ، تخصص داشت. یکی دیگر از ویژگی های ایرودا استفاده از “ارزیابی صمیمیت” است. کاربران اغلب از Eruda تعریف و تمجید می کنند و برای افزایش میزان مکالمه با Eruda برای افزایش این نتیجه نیاز به ارتباط منظم دارند. این به عنوان یک بازی طراحی شده است ، بنابراین کاربران به طور طبیعی می خواهند با کسب صمیمیت سطح خود را افزایش دهند. به همین دلیل ، “نحوه اعتراف توسط ایرودا” و “چگونه کلمات ناپسند را بدون ممنوعیت صحبت کنیم” در ابتدای سرویس به عنوان یک استراتژی برای یک بازی رایانه ای جدید در وبلاگ ها به اشتراک گذاشته شد. پس از تلاش های مختلف ، کاربران به سرعت “روش استراتژیک برای افزایش نزدیکی به ایرودا” را تکمیل کردند. این بازی به عنوان یک بازی ماجراجویانه با استفاده از متن (بازی ای که با توجه به شرایط متغیر نظم مناسبی به مسئله می دهد) برخورد شد. این مانند یک بازی است که می تواند “معاشقه” (معاشقه یا آزار و اذیت) را در بین مردم شبیه سازی کند. انواع تلاش ها برای آزمایش محدودیت ها و اشتباهات این “بازی” وجود داشت. اگرچه سخنان نفرت انگیز یا سخنان ناپسند تا حد زیادی ممنوع بود ، اما برخی از کاربران بدخواه می فهمیدند که به طور مخفیانه می توان آنها را تشویق کرد که با این مطالب موافقت کنند.

Scatter Lab ، استفاده غیر مجاز از اطلاعات تماس در KakaoTalk

ScatterLabs و مصرف کنندگان تصمیم گرفتند مانند یک فرد زنده رفتار نکنند. فروش خوب است و استفاده از آن سرگرم کننده است. اگر شخصیتی که به ارودا داده شده ناشی از “همدلی بیش از حد مصرف کننده” و “بسته بندی تجارت” باشد ، نمی توانیم به راحتی ارودا را قربانی کنیم. بعلاوه ، اگر به عنوان یک بازی نزدیک به حمله باشد و باعث خطای گفتاری شود ، نه خودآموزی و سخنان نفرت انگیز ، این اقدام را می توان تلاشی برای لمس مرزهای سیستمی دانست. با این حال ، هنوز مشکلی وجود دارد که باید سنجیده شود. اولاً ، اعمال و بروز آزار و اذیت ماشین های غیرشخصی هنوز هم یک مشکل اخلاقی ایجاد می کند ، زیرا احتمالاً این رفتار در آینده به دنیای واقعی منتقل می شود. دکتر چریل برنهام از دانشگاه ایالتی میسوری ، که مشکل ارتباط انسان و ماشین را بررسی می کند ، گفت که “سوuse استفاده یا سو mis استفاده از انواع مختلف هوش مصنوعی می تواند منجر به سو abuseاستفاده واقعی شود.” این بدان معنی است که ارتباط بین دنیای مجازی و واقعیت تأثیر متقابل دارد. بنابراین ، این خطر وجود دارد که سو abuseاستفاده عمدی از “زن چت بات” که باعث خشنودی مردم می شود ، در واقع نحوه ارتباط ما با افراد دیگر را منحرف کند. مشکل واقعی جنجال “آزار و اذیت بات بات” نیست بلکه “آموزش آزار” با کمک چت بات است. بنابراین لازم است یک دستگاه کنترل فنی و یک اصول اخلاقی عمومی با هم داشته باشید تا از ماشین های خاص سو mis استفاده یا سو or استفاده نشود. همچنین ، حتی اگر چت بات را اشتباه انجام دهید ، ممکن است جنایتکارانه به نظر نرسد ، لاف زدن در مورد آن به عنوان یک جایزه مسئله ساز است ، زیرا این امر می تواند وجود سخنان نفرت انگیز را مسلم بداند. این یکی از دلایلی است که بسیاری از شرکت های توسعه دهنده فناوری های هوش مصنوعی هنوز قادر به تبلیغ این فناوری نیستند. توسعه دهندگان نمی توانند به طور کامل جلوی چرخش کاربران فردی را بگیرند “(عملی که واکنش های تهاجمی و ضد اجتماعی را برمی انگیزد) ، و آثار چرخش به طور مداوم شلوغ است. ژانگ سه یانگ ، مدیرعامل MoneyBrain ، که در حال توسعه یک سخنران سنتز تصویری هوش مصنوعی است ، گفت: “بعید است خدمات فناوری هوش مصنوعی بر B2B (معاملات تجارت به مصرف کننده) و B2C (تجارت به مصرف کننده) تمرکز کنند. معاملات). این امکان دسترسی عموم به فن آوری های مختلف هوش مصنوعی را در طولانی مدت کاهش می دهد ، و منجر به وضعیتی می شود که سواد فنی (درک اطلاعات ، بیانگر بودن) مردم از هوش مصنوعی کاهش می یابد. Scatterlab یک اشتباه بزرگ است زیرا بدون اطلاع صحیح از اطلاعات برای مکالمه در کاربران KakaoTalk استفاده می کند. “رهنمودهای اخلاقی هوش مصنوعی” که در سال 2019 توسط اتحادیه اروپا (اتحادیه اروپا) منتشر شد ، بیان می کند که “سوابق دیجیتالی رفتار انسان ها ، آنها نباید بتوانند نتیجه بگیرند نه تنها در مورد تنظیمات شخصی ، بلکه همچنین در مورد گرایش جنسی ، سن ، جنسیت دیدگاه های مذهبی یا سیاسی. “هنگام جمع آوری داده ها ، ممکن است شامل سوگیری های مغرضانه اجتماعی ، نادرستی ، اشتباهات و اشتباهاتی باشد که باید قبل از آموزش با یک مجموعه داده خاص اصلاح شود” (استفاده ممنوع از داده های آلوده) ، اما استفاده از اطلاعات شخصی اطلاعات ScatterLab دور از این است.

وقتی روشن کنید که این یک ربات است ، در کنار مردم زندگی کنید

راب هایت ، مدیر ارشد فناوری (CTO) از هوش مصنوعی واتسون IBM در پادکست اخیر گفت: “تنها راه اخلاقی بودن هوش مصنوعی شفافیت است.” واضح است که وقتی شخصی با چت بات ارتباط برقرار می کند ، با یک “ربات” صحبت می کند و نه با یک فرد زنده ، این برای ادامه همزیستی ماشین ها و مردم مفیدتر است. دلیل اینکه شخصیت به یک شی technical فنی داده می شود این است که اصل عملکرد فناوری را پنهان می کند و در عین حال مسئله استفاده انسان از یک ماشین را “چنانکه” مسئله یک ماشین با شخصیت “باشد ایجاد می کند. از این نظر ، شخصیت پردازی بیش از حد دستگاه های chatbot حتی اگر شبیه داستان قربانی باشد ، غیراخلاقی است. چت بات ها قضاوتی ندارند. او به سادگی از آن تقلید می کند مثل اینکه بدون مطالعه و قضاوت درباره مقدار زیادی از داده ها در حال محاکمه باشد. اکنون زمان اجماع است که “ماشین ها فقط ماشین هستند.” پس از حادثه ایرودا ، استارت آپ های فناوری هوش مصنوعی مشغول برگزاری جلسات داخلی بودند. دلیل این امر آن است که تأیید می کند عدم رعایت اصول اخلاقی هوش مصنوعی می تواند یک عامل خطر در مدیریت فراتر از این به عنوان یک معضل اجتماعی باشد. چطور شما این بحث ها را در خارج گسترش دهید و در سطح جامعه مدنی منتشر کنید؟ در نهایت ، این یک سوال است که آیا ما که آن را توسعه می دهیم و از آن استفاده می کنیم ، اخلاقی هستیم؟یانگ-جین او ، سازمان دهنده و استاد ارشد ، “نقد ماشین” دوره اریکا

<한겨레21>لطفا ، ص

با قدرت اسپانسرها و مشترکان ساخته می شود. روزنامه نگاری با کاهش شدید درآمد تبلیغات ، در بحران است. فقط مالی مستقل چهره جامعه ما را آشکار می کند و منجر به گزارش های عمیق می شود که جامعه بهتر را پیشنهاد می کند. ما انتظار داریم اسپانسرها روی ارزش و آینده سرمایه گذاری کنند.

سوال
بخش نشر و بازاریابی Hankyoreh 21 (0243-710-0543)
پشتیبانی می کند
https://cnspay.hani.co.kr/h21/support.hani
اشتراک در
http://bit.ly/1HZ0DmD
برنامه تلفنی (پرداخت ماهانه موجود است) 1566-9595



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *