4 کلید برای توسعه هوش مصنوعی اخلاقی

[ad_1]

شرکت ها همچنان با نحوه استفاده از فناوری هوش مصنوعی (AI) به گونه ای دست و پنجه نرم می کنند که حریم خصوصی را به خطر نیندازد و کلیدهای دیگر را در نظر بگیرد. ملاحظات اخلاقی. غیرقابل انکار است که هوش مصنوعی یکی از دسته بندی های امروزی است که سریع ترین رشد را دارد. اما اگر نتوانیم ابزارهایی بسازیم که مطابق با استانداردهای اخلاقی بالا باشد، نه تنها به کاربران نهایی ضرر می‌رسانیم، بلکه در انجام وعده‌های این فناوری به عنوان نیرویی برای خیر، ناکام هستیم.

هوش مصنوعی و اخلاق یکی از داغ ترین موضوعات در جامعه فناوری برای دهه ها بوده است. با این حال، به‌عنوان یک صنعت، ما هنوز به سختی می‌توانیم بهترین قدم خود را در زمینه اطمینان از استفاده اخلاقی به پیش ببریم – چه رسد به حل مشکلاتی که این سیستم‌ها قرار بود به آن رسیدگی کنند. خوشبختانه، یک گروه وجود دارد که می تواند نیروی راهنمای ما باشد: توسعه دهندگان.

از فرآیند ایده‌پردازی تا پیاده‌سازی، جامعه توسعه‌دهندگان گروهی هستند که صمیمی‌ترین دانش را از نحوه عملکرد واقعی محصولات هوش مصنوعی دارند. بنابراین، آن‌ها می‌توانند تأثیر فوق‌العاده‌ای بر آنچه که این ابزارها واقعاً انجام می‌دهند و چقدر اخلاقی هستند، داشته باشند – و برای انجام این تماس‌ها باید به آنها قدرت داد.

با در نظر گرفتن این موضوع، در اینجا چهار سوال کلیدی وجود دارد که شرکت‌ها و تیم‌های توسعه‌دهنده آن‌ها باید در حین ساخت راه‌حل‌های هوش مصنوعی اخلاقی در آینده بپرسند.

آیا این از هر نظر شفاف است؟

اگر زمانی از توسعه‌دهنده‌ای بیابد که می‌گوید «نمی‌دانم»، وقتی از او پرسیده شد که یک محصول چگونه کار می‌کند یا محصول در نهایت چگونه قرار است استفاده شود، تولید باید فورا متوقف شود. قدرت اتوماسیون فوق العاده است. اما با توجه به اینکه چقدر سریع می تواند شکل بگیرد و یاد بگیرد، اطمینان از اینکه نظارت و توضیح پذیری در عملکرد آن ریشه دوانده است برای اطمینان از استفاده اخلاقی ضروری است. اگر نمی توان این را تضمین کرد، توسعه دهندگان باید این اختیار را داشته باشند که نگرانی های خود را اعلام کنند و قبل از ادامه تولید به دنبال راه هایی برای رفع آنها باشند.

همانطور که هوش مصنوعی به تکامل خود ادامه می دهد، طراحی و توسعه سیستم های هوش مصنوعی احتمالاً ما را به مناطقی هدایت می کند که هیچ دستورالعمل قانونی، اجتماعی یا سیاستی روشنی به بسیاری از استفاده ها و سوء استفاده های بالقوه توجه نمی کند. بنابراین، اکنون زمان آن است که توسعه دهندگان یک کانال ارتباطی شفاف و روشن ایجاد کنند که در آن بتوانند به طور فعال نگرانی ها را مطرح کنند، در مورد معضلات اخلاقی با ذینفعان مختلف بحث و گفتگو کنند. این امر در کاهش یا حذف هر گونه اثرات منفی هوش مصنوعی بسیار مهم است. در غیر این صورت، ما همچنان شاهد ادامه تقلب های فعلی در مورد اخلاق هوش مصنوعی خواهیم بود.

آیا ریسک را در نظر گرفته ایم یا از مرزهای نظارتی فراتر رفته ایم؟

تقریباً هر ایده بزرگی خطرات خود را دارد. متأسفانه، وقتی صحبت از هوش مصنوعی به میان می آید، این خطرات عموماً شامل استفاده غیراخلاقی یا عواقب ناخواسته می شوند. بحث های جاری پیرامون تشخیص چهره و هوش مصنوعی نمونه کاملی از این موضوع است. در حالی که این مورد استفاده برای بهبود امنیت در نظر گرفته شده است و ممکن است مزایای دیگری نیز داشته باشد، نرم افزار تشخیص چهره با خطرات و ترس های قابل توجهی در مورد حفظ حریم خصوصی در مورد سوء استفاده و استفاده نادرست همراه است. علاوه بر این، از آنجایی که چشم‌انداز نظارتی پیرامون هوش مصنوعی هنوز در حال شکل‌گیری است، شرکت‌ها می‌توانند در ازای اینکه اولین کسانی باشند که وارد بازار می‌شوند یا مزیت رقابتی کسب می‌کنند، در دام استفاده از این مناطق خاکستری بیفتند. به همین دلیل است که شرکت‌هایی که برای مثال از هوش مصنوعی حفظ حریم خصوصی اخلاقی در پیاده‌سازی تشخیص چهره استفاده نمی‌کنند، مجبورند محصولات خود را پس بگیرند.

به بیان ساده، عمل به این شیوه می تواند عواقب وحشتناکی برای اخلاقیات پیرامون یک محصول هوش مصنوعی داشته باشد. اما خبرهای خوب هم هست؛ راه حل این اشتباه نسبتاً ساده است: به جای اطمینان از اینکه محصولات به سختی با مناطق خاکستری نظارتی مطابقت دارند، مطمئن شوید که از آنها فراتر رفته است. مسلما، این می تواند منجر به افزایش زمان عرضه به بازار و کار قابل توجهی شود. با این حال، این تنها راه برای محصولات واقعی “مطمئن به آینده” در برابر موارد استفاده غیراخلاقی بالقوه است.

آیا این سیستم قابل تطبیق است؟

حتی بهترین آمادگی و پیش‌اندیشی تضمین نمی‌کند که یک ابزار دقیقاً همانطور که در نظر گرفته شده است عمل کند. به همین دلیل است که برای توسعه دهندگان بسیار مهم است که توانایی برنامه ریزی برای موارد احتمالی و ایجاد سازگاری در ابزارهای خود را داشته باشند تا در صورت بروز هرگونه سؤال اخلاقی، بتوان به طور دوره ای تنظیمات را انجام داد. این می تواند به ویژه در مورد توجه به نگرانی های سوگیری که ممکن است با یادگیری و گسترش محصولات هوش مصنوعی رخ دهد مفید باشد.

فناوری مقوله ای پویا و به سرعت در حال تکامل است. و به این ترتیب، توسعه دهندگان اغلب روی جدول زمانی بسیار فشرده کار می کنند. اما برای درست کردن هوش مصنوعی، توسعه‌دهندگان به زمان نیاز دارند تا تصویر بزرگ‌تری را در مورد محصولات خود ارائه دهند و همه چیز را آماده کنند تا مطمئن شوند محصولات برای استفاده اخلاقی در کوتاه‌مدت، میان‌مدت و بلندمدت تنظیم شده‌اند. اگر این کار را انجام ندهند، نه تنها به یک شرکت آسیب وارد می شود، بلکه کل خط لوله محصول یک شرکت ممکن است به طور نامحدود متوقف شود زیرا محصولات باید به طور کامل آفلاین شوند.

آیا تیم های توسعه دهنده واقعاً برای ساختن اخلاقی آماده هستند؟

تنظیم یک بیانیه ماموریت مشخص که حول محور اخلاق باشد، شروعی عالی برای هر شرکت فناوری است. اما بدون رویکرد سیستماتیک‌تر برای القای رفتار اصولی در تیم‌های توسعه‌دهنده، شرکت‌ها برای دستیابی به نتایج ملموس در پیگیری ساخت محصولات اخلاقی تلاش خواهند کرد. علاوه بر این، با توجه به اینکه توسعه هوش مصنوعی اخلاقی تا چه حد پیچیده شده است – به لطف نوآوری‌ها در محاسبات کوانتومی، در میان چیزهای دیگر – حتی باتجربه‌ترین توسعه‌دهندگان نیز در هماهنگی با پیشرفت‌ها و استانداردهای مورد نظر مرتبط با اهداف اخلاقی هوش مصنوعی یک شرکت مشکل خواهند داشت.

بنابراین، فراتر از ارسال پیام‌های فراگیر، شرکت‌ها باید اهداف اخلاقی خود را با ایجاد زیرساخت کاملی که توسعه‌دهندگان را با آموزش‌های مداوم و منابعی که برای حفظ استانداردهای اخلاقی در ذهن دائماً نیاز دارند، تجهیز کنند، مدون کنند. در غیر این صورت، تقریباً به طور قطع سردرگمی رخ خواهد داد، گام‌های اشتباه رخ خواهد داد و در نتیجه استانداردهای اخلاقی از بین خواهند رفت.

متأسفانه، علیرغم وعده‌ها، دنیای هوش مصنوعی نتوانست چارچوب‌های اخلاقی را که برای حل مشکلات فردا و در عین حال خدمت به منافع عمومی داشته باشیم، داشته باشیم. اما لازم نیست اینطور باشد. با پرسیدن این چند سوال ساده، شرکت‌ها می‌توانند توسعه‌دهندگان را توانمند کرده و زیرساخت‌های توسعه اخلاقی را ایجاد کنند که برای دستیابی به پتانسیل کامل هوش مصنوعی مورد نیاز است.

[ad_2]

به این مطلب امتیاز دهید

توجه و هشدار
طبق ماده 12 فصل سوم قانون جرائم رایانه ای هرگونه کپی برداری از تگ سرویس و سایت های آن پیگرد قانونی دارد.
هرگونه کپی برداری از قالب و مطالب شرعا حرام بوده و پیگرد قانونی دارد وقابل پیگیری خواهد بود!
همچنین سایت یا وبلاگ متخلف گزارش dcma می شود!
منبع تگ سرویس
رمز فايل : www.tagservice.ir
۳ سال به صورت حرفه ای با وردپرس کار میکنم و به کارهای وب و سئو و همچنین برنامه نویسی علاقه مندم.
نوشته ایجاد شد 307

نوشته های مرتبط

متنی که میخواهید برای جستجو وارد کرده و دکمه جستجو را فشار دهید. برای لغو دکمه ESC را فشار دهید.

بازگشت به بالا
تبلیغات class=