به گزارش نخست نیوز،
یک استارتآپ فینتک چندی پیش یک آزمایش ساده انجام داد. این استارتآپ دو متقاضی یکسان را به مدل هوش مصنوعی تأیید وام خود ارجاع داد. در یکی از پروندهها، متقاضی به عنوان فردی «با سابقه اشتغال ثابت و دو وقفه کوتاه» توصیف شده بود. در پرونده دیگر، عبارت به صورت «چندین وقفه در اشتغال» تغییر کرده بود و همان حقایق را با چارچوب متفاوت ارائه میداد.
به نقل از فوربس، نتیجه آزمایش این بود که هوش مصنوعی یک وام را تأیید و دیگری را رد کرد. بنیانگذاران استارتآپ با این موضوع روبهرو شدند که هوش مصنوعی بیطرف نیست و درست مانند انسانها به واژهها واکنش نشان میدهد.
«آموس تورسکی»(Amos Tversky) و «دنیل کانمن»(Daniel Kahneman) اقتصاددانان رفتاری، دههها پیش نشان دادند که انسانها ماشینحسابهای منطقی نیستند. ما به میانبرهایی به نام اکتشافات متکی هستیم که به ما کمک میکنند تا سریع تصمیم بگیریم، اما اغلب ما را گمراه میکنند. نکته نگرانکننده این است که چون هوش مصنوعی براساس دادهها و تصمیمهای ما ساخته شده، همان نقصها را دارد.
ما اغلب احتمال را براساس شباهت قضاوت میکنیم، نه منطق. براساس یک سناریوی کلاسیک مطرحشده توسط تورسکی و کانمن که به عنوان «مسئله لیندا»(Linda problem) شناخته میشود، مردم فرض میکنند «صندوقدار فمینیست بانک» محتملتر از «صندوقدار بانک» است یا فرض میکنند افراد قدبلند باید بسکتبالیستهای خوبی باشند؛ حتی اگر بیشتر مردم – از جمله افراد قدبلند – بسکتبال بازی نکنند.
هوش مصنوعی نیز از این دام مصون نیست. شرکت «آمازون» در یک مقطع زمانی، هوش مصنوعی بررسی رزومه را کنار گذاشت، زیرا همچنان کاندیداهای مرد را برای مشاغل کدنویسی ترجیح میداد. دلیل ترجیح این بود که آن برنامه هوش مصنوعی براساس دادههای استخدام در سالهای گذشته آموزش دیده بود و در گذشته، بیشتر مشاغل کدنویسی توسط مردان انجام میشدند. در یک مورد بدنام دیگر، یک سیستم هوش مصنوعی تشخیص تصویر، افراد سیاهپوست را «گوریل» نامید. این سیستم، تعصب را اختراع نکرده بود، بلکه آن را از پاسخهای انسانی جذب کرده بود.
این گزارش به موارد گوناگونی از نقصهای مشابه در تفکر انسانی و هوش مصنوعی میپردازد.
۱. در دسترس بودن. آنچه به راحتی به خاطر سپرده میشود، محتملتر از چیزی است که به نظر میرسد. وقتی مثالها واضح و بهیادماندنی هستند، ما خطرات را بیش از حد ارزیابی میکنیم.
پس از حادثه ۱۱ سپتامبر، بسیاری از آمریکاییها به جای پرواز با هواپیما رانندگی کردند و خطر هواپیما را بیش از حد بزرگ جلوه دادند. وقتی حمله کوسهها تیتر خبرها میشود، مردم از کوسهها بیشتر از غرق شدن یا تصادفات رانندگی میترسند که از نظر آماری بسیار رایجتر هستند.
هوش مصنوعی هم همین اشتباه را مرتکب میشود. چتباتها عاشق این هستند که رسواییهای پرسروصدای سلبریتیها را به نمایش بگذارند، چون این داستانها فضای وب را پر کردهاند. این در حالی است که رویدادهای معمولی اما پیشپاافتادهتر نادیده گرفته میشوند.
سیستمهای نظارتی پیشبینیکننده، محلههایی با سوابق طولانی دستگیری را بیش از حد هدف قرار میدهند؛ نه لزوماً به این دلیل که خطرناکتر هستند، بلکه به این دلیل که دادهها در آنجا بیشتر قابل مشاهده هستند.
اگر از هوش مصنوعی بخواهید تصویری را از یک مزرعه ارائه دهد، به جای یک چشمانداز خاکی بسیار رایجتر، یک منظره دیدنی را با رشتهکوه یا اقیانوسی درخشان ارائه میدهد زیرا انسانها به ندرت از یک منظره خاکی عکس میگیرند.
۲. اثر لنگر انداختن. لنگر انداختن نوعی سوگیری شناختی است که موجب میشود ذهن در فرایند تصمیمگیری به نخستین اطلاعاتی که به دست میآورد، تکیه کند.
ما انسانها هنگام سر و کار داشتن با اعداد روی اولین عددی که میبینیم، تمرکز میکنیم. خریداران با تمرکز بر قیمتهای اولیه اغراقآمیز، تخفیفها را بیش از حد ارزیابی میکنند.
اگر از دانشآموزان بخواهید تا درآمد یک فروشگاه استارباکس را تخمین بزنند، اما ابتدا از آنها بخواهید تا دو رقم آخر شماره تلفن همراه خود را بنویسند، خواهید دید کسانی که شماره تلفن همراه بالاتری دارند، دائماً تخمینهای بالاتری را از درآمد ارائه میدهند؛ حتی اگر بدیهی باشد که این دو مقدار به هم ربطی ندارند.
پاسخهای هوش مصنوعی نیز به همین راحتی تحت تاثیر قرار میگیرند. اگر از یک مدل هوش مصنوعی بپرسید «چرا دورکاری شکست میخورد؟»، فهرستی را از شکستها ارائه میدهد. اگر سؤال را به این صورت تغییر دهید که «چرا دورکاری رونق دارد؟»، نتیجه عکس خواهید گرفت. نکته اصلی در همان عبارت اول نهفته است.
منبع ایسنا
شهردار مشهد: مشهد تفریحی ترین شهر کشور برای بانوان






دیدگاهتان را بنویسید