loading...

کدنویسی بچه ها

بازدید : 16
سه شنبه 8 خرداد 1403 زمان : 18:17

از عکس‌های واقعی، ضبط‌شده، فیلم‌ها یا نوشته‌های هوش مصنوعی به زبان ساده برای کودکان انسانی قابل استنشاق است. ممکن است بازیگران بد از این فناوری برای ایجاد اطلاعات نادرست یا تبلیغات گسترده استفاده کنند.[168] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را در مورد این که هوش مصنوعی «رهبران اقتدارگرا» را قادر می‌سازد تا رأی‌دهندگان خود را در مقیاس بزرگ دستکاری کنند، از جمله خطرات دیگر ابراز کرد.[169]

تعصب و انصاف الگوریتمی

مقالات اصلی: تعصب الگوریتمی و عدالت (یادگیری ماشینی)

اگر برنامه‌های یادگیری ماشینی از داده‌های بایاس یاد بگیرند، سوگیری هوش مصنوعی به زبان ساده برای کودکان خواهند داشت.[170] توسعه دهندگان ممکن است از وجود سوگیری آگاه نباشند.[171] تعصب را می توان با روشی که داده های آموزشی انتخاب می کند و روشی که یک مدل به کار می گیرد، معرفی کرد.[172][170] اگر از یک الگوریتم مغرضانه برای تصمیم گیری استفاده شود که می تواند به طور جدی به افراد آسیب برساند (همانطور که در پزشکی، مالی، استخدام، مسکن یا پلیس می تواند انجام شود) آنگاه الگوریتم ممکن است باعث تبعیض شود.[173] عدالت در یادگیری ماشینی مطالعه چگونگی جلوگیری از آسیب ناشی از سوگیری الگوریتمی است. این به حوزه جدی مطالعه دانشگاهی در هوش مصنوعی تبدیل شده است. محققان دریافته‌اند که همیشه نمی‌توان «انصاف» را به گونه‌ای تعریف کرد که همه ذینفعان را راضی کند.[174]

در 28 ژوئن 2015، ویژگی جدید برچسب‌گذاری عکس Google Photos به اشتباه جکی آلسین و یکی از دوستانش را به‌عنوان «گوریل» شناسایی کرد زیرا سیاه‌پوست بودند. این سیستم بر روی مجموعه داده ای که حاوی تصاویر بسیار کمی از افراد سیاهپوست بود، آموزش داده شد، [175] مشکلی به نام "اختلاف اندازه نمونه هوش مصنوعی به زبان ساده برای کودکان ". گوگل این مشکل را با جلوگیری از برچسب گذاری سیستم به هر چیزی به عنوان گوریل "رفع" کرد. هشت سال بعد، در سال 2023، Google Photos هنوز نتوانست یک گوریل را شناسایی کند، و همچنین محصولات مشابه اپل، فیس بوک، مایکروسافت و آمازون نیز نتوانستند شناسایی کنند.[177]

COMPAS یک برنامه تجاری است که به طور گسترده توسط هوش مصنوعی به زبان ساده برای کودکان دادگاه های ایالات متحده برای ارزیابی احتمال تکرار یک متهم استفاده می شود. در سال 2016، جولیا انگوین در ProPublica متوجه شد که COMPAS دارای تعصب نژادی است، علیرغم این واقعیت که به برنامه نژادهای متهمان گفته نشده بود. اگر چه میزان خطا برای سفیدپوستان و سیاهپوستان دقیقاً برابر با 61% بود، خطاها برای هر نژاد متفاوت بود - سیستم به طور مداوم احتمال اینکه یک سیاهپوست دوباره مرتکب جرم شود بیش از حد برآورد می کرد و این احتمال را دست کم می گرفت که یک فرد سفیدپوست این کار را انجام نمی دهد. تجاوز مجدد.[178] در سال 2017، چندین محقق [k] نشان دادند که از نظر ریاضی برای COMPAS غیرممکن است که تمام معیارهای ممکن برای انصاف را در نظر بگیرد، در حالی که نرخ هوش مصنوعی به زبان ساده برای کودکان پایه حمله مجدد برای سفیدپوستان و سیاه پوستان در داده ها متفاوت است.[180]

یک برنامه می تواند تصمیمات مغرضانه بگیرد حتی اگر داده ها به صراحت به یک ویژگی مشکل ساز (مانند "نژاد" یا "جنسیت") اشاره نکنند. این ویژگی با سایر ویژگی‌ها (مانند «آدرس»، «سابقه خرید» یا «نام») مرتبط خواهد بود و برنامه همان تصمیم‌هایی را که در مورد «نژاد» یا «جنسیت» انجام می‌دهد، براساس این ویژگی‌ها خواهد گرفت.[181 ] موریتز هارت گفت: "قوی ترین واقعیت در این زمینه تحقیقاتی این است که انصاف از طریق نابینایی کارساز نیست."[182]

انتقاد از COMPAS تأکید کرد که مدل‌های یادگیری ماشین برای انجام «پیش‌بینی‌هایی» طراحی شده‌اند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته است. اگر آنها بر روی داده هوش مصنوعی به زبان ساده برای کودکان هایی که شامل نتایج تصمیمات نژادپرستانه در گذشته است آموزش ببینند، مدل های یادگیری ماشینی باید پیش بینی کنند که تصمیمات نژادپرستانه در آینده گرفته خواهد شد. اگر برنامه‌ای از این پیش‌بینی‌ها به عنوان توصیه استفاده کند، برخی از این «توصیه‌ها» احتمالاً نژادپرستانه خواهند بود.[183] بنابراین، یادگیری ماشین برای کمک به تصمیم گیری در زمینه هایی که امید به بهتر شدن آینده از گذشته وجود دارد، مناسب نیست. لزوماً توصیفی است و نه تشریحی.[l]

تعصب و بی انصافی ممکن است شناسایی نشود زیرا توسعه دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود 4٪ سیاه پوست و 20٪ زن هستند.[176]

انجمن ماشین های محاسباتی در سئول، کره جنوبی، در کنفرانس سال 2022 خود در مورد انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، یافته هایی را ارائه و منتشر کرد که توصیه می کند تا زمانی که سیستم های هوش مصنوعی و روباتیک عاری از اشتباهات سوگیری باشند، آنها ناامن هستند و استفاده از شبکه های هوش مصنوعی به زبان ساده برای کودکان عصبی خودآموز آموزش دیده بر روی منابع گسترده و غیرقابل تنظیم داده های اینترنتی ناقص باید محدود شود.[185]

عدم شفافیت

همچنین ببینید: هوش مصنوعی قابل توضیح، شفافیت الگوریتمی، و حق توضیح

خودروی آزمایشی لیدار برای رانندگی خودران

بسیاری از سیستم های هوش مصنوعی آنقدر پیچیده هستند که طراحان هوش مصنوعی به زبان ساده برای کودکان آنها نمی توانند توضیح دهند که چگونه به تصمیمات خود می رسند.[186] به ویژه در مورد شبکه های عصبی عمیق، که در آن مقدار زیادی روابط غیر خطی بین ورودی و خروجی وجود دارد. اما برخی از تکنیک‌های قابل توضیح رایج وجود دارد.[187]

اگر کسی نداند دقیقاً چگونه کار می کند، نمی توان مطمئن بود که یک برنامه به درستی کار می کند. موارد زیادی وجود داشته است که یک برنامه یادگیری ماشینی تست های سختی را پشت سر گذاشته است، اما با این وجود چیزی متفاوت از آنچه برنامه نویسان در نظر داشتند یاد گرفته است. به عنوان مثال، سیستمی که می تواندArtificial intelligence in plain language for children بیماری های پوستی را بهتر از دارو شناسایی کند

از عکس‌های واقعی، ضبط‌شده، فیلم‌ها یا نوشته‌های هوش مصنوعی به زبان ساده برای کودکان انسانی قابل استنشاق است. ممکن است بازیگران بد از این فناوری برای ایجاد اطلاعات نادرست یا تبلیغات گسترده استفاده کنند.[168] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را در مورد این که هوش مصنوعی «رهبران اقتدارگرا» را قادر می‌سازد تا رأی‌دهندگان خود را در مقیاس بزرگ دستکاری کنند، از جمله خطرات دیگر ابراز کرد.[169]

تعصب و انصاف الگوریتمی

مقالات اصلی: تعصب الگوریتمی و عدالت (یادگیری ماشینی)

اگر برنامه‌های یادگیری ماشینی از داده‌های بایاس یاد بگیرند، سوگیری هوش مصنوعی به زبان ساده برای کودکان خواهند داشت.[170] توسعه دهندگان ممکن است از وجود سوگیری آگاه نباشند.[171] تعصب را می توان با روشی که داده های آموزشی انتخاب می کند و روشی که یک مدل به کار می گیرد، معرفی کرد.[172][170] اگر از یک الگوریتم مغرضانه برای تصمیم گیری استفاده شود که می تواند به طور جدی به افراد آسیب برساند (همانطور که در پزشکی، مالی، استخدام، مسکن یا پلیس می تواند انجام شود) آنگاه الگوریتم ممکن است باعث تبعیض شود.[173] عدالت در یادگیری ماشینی مطالعه چگونگی جلوگیری از آسیب ناشی از سوگیری الگوریتمی است. این به حوزه جدی مطالعه دانشگاهی در هوش مصنوعی تبدیل شده است. محققان دریافته‌اند که همیشه نمی‌توان «انصاف» را به گونه‌ای تعریف کرد که همه ذینفعان را راضی کند.[174]

در 28 ژوئن 2015، ویژگی جدید برچسب‌گذاری عکس Google Photos به اشتباه جکی آلسین و یکی از دوستانش را به‌عنوان «گوریل» شناسایی کرد زیرا سیاه‌پوست بودند. این سیستم بر روی مجموعه داده ای که حاوی تصاویر بسیار کمی از افراد سیاهپوست بود، آموزش داده شد، [175] مشکلی به نام "اختلاف اندازه نمونه هوش مصنوعی به زبان ساده برای کودکان ". گوگل این مشکل را با جلوگیری از برچسب گذاری سیستم به هر چیزی به عنوان گوریل "رفع" کرد. هشت سال بعد، در سال 2023، Google Photos هنوز نتوانست یک گوریل را شناسایی کند، و همچنین محصولات مشابه اپل، فیس بوک، مایکروسافت و آمازون نیز نتوانستند شناسایی کنند.[177]

COMPAS یک برنامه تجاری است که به طور گسترده توسط هوش مصنوعی به زبان ساده برای کودکان دادگاه های ایالات متحده برای ارزیابی احتمال تکرار یک متهم استفاده می شود. در سال 2016، جولیا انگوین در ProPublica متوجه شد که COMPAS دارای تعصب نژادی است، علیرغم این واقعیت که به برنامه نژادهای متهمان گفته نشده بود. اگر چه میزان خطا برای سفیدپوستان و سیاهپوستان دقیقاً برابر با 61% بود، خطاها برای هر نژاد متفاوت بود - سیستم به طور مداوم احتمال اینکه یک سیاهپوست دوباره مرتکب جرم شود بیش از حد برآورد می کرد و این احتمال را دست کم می گرفت که یک فرد سفیدپوست این کار را انجام نمی دهد. تجاوز مجدد.[178] در سال 2017، چندین محقق [k] نشان دادند که از نظر ریاضی برای COMPAS غیرممکن است که تمام معیارهای ممکن برای انصاف را در نظر بگیرد، در حالی که نرخ هوش مصنوعی به زبان ساده برای کودکان پایه حمله مجدد برای سفیدپوستان و سیاه پوستان در داده ها متفاوت است.[180]

یک برنامه می تواند تصمیمات مغرضانه بگیرد حتی اگر داده ها به صراحت به یک ویژگی مشکل ساز (مانند "نژاد" یا "جنسیت") اشاره نکنند. این ویژگی با سایر ویژگی‌ها (مانند «آدرس»، «سابقه خرید» یا «نام») مرتبط خواهد بود و برنامه همان تصمیم‌هایی را که در مورد «نژاد» یا «جنسیت» انجام می‌دهد، براساس این ویژگی‌ها خواهد گرفت.[181 ] موریتز هارت گفت: "قوی ترین واقعیت در این زمینه تحقیقاتی این است که انصاف از طریق نابینایی کارساز نیست."[182]

انتقاد از COMPAS تأکید کرد که مدل‌های یادگیری ماشین برای انجام «پیش‌بینی‌هایی» طراحی شده‌اند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته است. اگر آنها بر روی داده هوش مصنوعی به زبان ساده برای کودکان هایی که شامل نتایج تصمیمات نژادپرستانه در گذشته است آموزش ببینند، مدل های یادگیری ماشینی باید پیش بینی کنند که تصمیمات نژادپرستانه در آینده گرفته خواهد شد. اگر برنامه‌ای از این پیش‌بینی‌ها به عنوان توصیه استفاده کند، برخی از این «توصیه‌ها» احتمالاً نژادپرستانه خواهند بود.[183] بنابراین، یادگیری ماشین برای کمک به تصمیم گیری در زمینه هایی که امید به بهتر شدن آینده از گذشته وجود دارد، مناسب نیست. لزوماً توصیفی است و نه تشریحی.[l]

تعصب و بی انصافی ممکن است شناسایی نشود زیرا توسعه دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود 4٪ سیاه پوست و 20٪ زن هستند.[176]

انجمن ماشین های محاسباتی در سئول، کره جنوبی، در کنفرانس سال 2022 خود در مورد انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، یافته هایی را ارائه و منتشر کرد که توصیه می کند تا زمانی که سیستم های هوش مصنوعی و روباتیک عاری از اشتباهات سوگیری باشند، آنها ناامن هستند و استفاده از شبکه های هوش مصنوعی به زبان ساده برای کودکان عصبی خودآموز آموزش دیده بر روی منابع گسترده و غیرقابل تنظیم داده های اینترنتی ناقص باید محدود شود.[185]

عدم شفافیت

همچنین ببینید: هوش مصنوعی قابل توضیح، شفافیت الگوریتمی، و حق توضیح

خودروی آزمایشی لیدار برای رانندگی خودران

بسیاری از سیستم های هوش مصنوعی آنقدر پیچیده هستند که طراحان هوش مصنوعی به زبان ساده برای کودکان آنها نمی توانند توضیح دهند که چگونه به تصمیمات خود می رسند.[186] به ویژه در مورد شبکه های عصبی عمیق، که در آن مقدار زیادی روابط غیر خطی بین ورودی و خروجی وجود دارد. اما برخی از تکنیک‌های قابل توضیح رایج وجود دارد.[187]

اگر کسی نداند دقیقاً چگونه کار می کند، نمی توان مطمئن بود که یک برنامه به درستی کار می کند. موارد زیادی وجود داشته است که یک برنامه یادگیری ماشینی تست های سختی را پشت سر گذاشته است، اما با این وجود چیزی متفاوت از آنچه برنامه نویسان در نظر داشتند یاد گرفته است. به عنوان مثال، سیستمی که می تواندArtificial intelligence in plain language for children بیماری های پوستی را بهتر از دارو شناسایی کند

نظرات این مطلب

تعداد صفحات : 0

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 212
  • کل نظرات : 0
  • افراد آنلاین : 6
  • تعداد اعضا : 0
  • بازدید امروز : 29
  • بازدید کننده امروز : 1
  • باردید دیروز : 6
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 37
  • بازدید ماه : 37
  • بازدید سال : 5143
  • بازدید کلی : 11416
  • <
    پیوندهای روزانه
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی