به گزارش نخست نیوز ،چشماندازهای علمی تخیلی از آینده شامل نسخههای بسیاری از هوش مصنوعی است،اما نمونههای نسبتا کمی وجود دارند که این فناوری بتواند جایگزین قضات انسانی شود. برای یک بار هم که شده، به نظر میرسد دنیای واقعی به گونهای تغییر میکند که در این چشم اندازها پیش بینی نشده است.در ماه فوریه،یک قاضی از هوش مصنوعی برای تصمیمگیری درباره پرونده بیمه راهنمایی خواست.تقریباً در همان زمان، یک قاضی دیگر از این فناوری برای تأیید تصمیمات خود در دو پرونده جداگانه استفاده کرد.همچنین گزارشهایی از قاضیهای دیگری در سراسر جهان وجود دارد که به دنبال مشاوره از هوش مصنوعی هستند.این در حال است که در چین،قضات توسط هوش مصنوعی مشاوره و کمک میشوند و این پیشرفت احتمالاً ادامه خواهد داشت.همچنین یک قاضی در سخنرانی اخیر خود از هوش مصنوعی برای تصمیمگیری در مورد اختلافات شخصی استفاده کرد.هوش مصنوعی واقعا آنقدر هوشمند نیست
این ممکن است در ابتدا ایده خوبی به نظر برسد.قرار است قانون به طور بی طرفانه و عینی اعمال شود.علاوهبر این هوش مصنوعی نیازی به استراحت برای ناهار ندارد،نمیتواند رشوه بگیرد و افزایش حقوق نمیخواهد.همچنین عدالت هوش مصنوعی میتواند سریعتر و کارآمدتر اعمال شود.اما چهار دلیل اصلی در اینجا وجود دارد که چرا ممکن است استفاده از این فناوری ایده خوبی نباشد.اولین مورد این است که در عمل،هوش مصنوعی به طور کلی به عنوان یک سیستم خبره یا به عنوان یک سیستم یادگیری ماشینی عمل میکند. سیستم های خبره شامل کدگذاری قوانین در مدلی از تصمیمات و پیامدهای آنها به نام درخت تصمیم در نرم افزار است.این در حالی است که اینها اوج شکوفایی خود را در دهه ۱۹۸۰ داشتند.با این حال، در نهایت ثابت شد که این فناوری قادر به ارائه نتایج خوب در مقیاس بزرگ نیستند.یادگیری ماشینی نوعی از هوش مصنوعی است که در طول زمان کارهایی را که انجام میدهد بهبود می بخشد.یک نقطه قوت این است که میتواند همبستگیها و الگوهایی را در دادهها بیابد که ما ظرفیت محاسبه آنها را نداریم.
با این حال، یکی از نقاط ضعف آن این است که به نتایجی میرسد که آشکارا نادرست است.در یک مثال قابل توجه، یک هوش مصنوعی فریب خورد تا لاک پشت را به عنوان تفنگ تشخیص دهد.تشخیص چهره اغلب مشکلاتی را در شناسایی درست زنان، کودکان و افرادی که پوست تیره دارند،ایجاد میکند.بنابراین این امکان وجود دارد که هوش مصنوعی بتواند فردی را به اشتباه در صحنه جرم قرار دهد که آنجا نبوده است.اعتماد به یک سیستم حقوقی که نتایج نادرستی را ارائه میکند،دشوار خواهد بود.هنگامی که هوش مصنوعی در فرآیندهای قانونی استفاده میشود و با شکست مواجه میشود،عواقب آن میتواند بسیار بد باشد.از آنجایی که فناوری چت باتهای هوش مصنوعی به نوشتن متنی کاملاً نادرست معروف هستند،
بنابراین به عنوان یک توهم هوش مصنوعی شناخته میشود.یک وکیل از چت بات هوش مصنوعی برای نوشتن مطالبی به دادگاه استفاده کرده است،اما متوجه شد که این فناوری به مواردی اشاره کرده است که وجود ندارد.این نشان می دهد که این نوع ابزارها هنوز قادر نیستند که جایگزین وکیل یا قاضی شوند و در واقع ممکن است هرگز چنین نباشند.دومین علتی که نشان میدهد نباید از هوش مصنوعی در این موارد استفاده کرد،این است که سیستمهای یادگیری ماشینی بر دادههای تاریخی متکی هستند.در جرم و جنایت و قانون، این موارد اغلب حاوی تعصب هستند.همچنین جوامع به حاشیه رانده شده اغلب در سوابق دستگیریها و محکومیتها بیشتر نشان داده میشوند،بنابراین یک سیستم هوش مصنوعی ممکن است به این نتیجه غیرمجاز برسد که احتمال گناهکار بودن افراد با پیشینه های خاص بیشتر است.نمونه بارز این سیستم Compas است،یک الگوریتم هوش مصنوعی که توسط گروهی از قضات برای تصمیم گیری در مورد اعطای وثیقه و مجازات استفاده می شود.نتایج یک تحقیق نشان داد که هوش مصنوعی در این موارد میگوید که افراد رنگین پوست همواره مجرم هستند و سفید پوستان هیچ وقت مرتکب جرم نمیشوند.
ثالثاً، مشخص نیست که بتوان قوانین حقوقی را به طور قابل اعتمادی به قوانین نرم افزاری تبدیل کرد چون افراد یک قانون را به طرق مختلف تفسیر میکنند.همچنین قضات ممکن است تفسیرهای متفاوتی از قانون داشته باشند،اما این کار را در ملاء عام انجام میدهند.این باید میزان تنوع در قضاوت ها را در طول زمان کاهش دهد اما اگر یک قاضی در اجرای یک قانون خیلی سخت گیرانه یا خیلی ملایم عمل کند،کشف و تصحیح آن ممکن است بسیار دشوار باشد.در نهایت، باید بدانید که قضاوت تنها کاری نیست که قاضیها انجام میدهند.آنها نقشهای بسیار دیگری در سیستم حقوقی دارند مانند مدیریت دادگاه،محموله پرونده و تیمی از کارکنان، و جایگزینی آنها با برنامههای نرمافزاری حتی دشوارتر است.
دیدگاهتان را بنویسید