محققان ماشینی ساخته اند که طبق ادعای آن ها، می توان با استفاده از آن، حالات و ویژگی های چهره افراد را بررسی و مجرم بودن و یا نبودن آن ها را تشخیص داد.
این هوش مصنوعی ایجاد شده در دانشگاه جیائو تونگ شانگهای، با بررسی تعداد کل ۱۸۶ تصویر افراد مختلف در ده نوبت، با موفقیت توانست در نه مرتبه با بررسی حالات چشم ها، بینی و دهان مجرمان را تشخیص دهد.
این یافته ها این موضوع را نیز در هوش مصنوعی به کار برده اند که مجرمان دارای ویژگی های خاصی در صورتشان هستند و بدین ترتیب می توانند با کیفیت بیشتری به تشخیص مجرمان بپردازند.
این پروژه می تواند در صورت عملی شدن بسیار بحث برانگیز شود و باعث افزایش این نگرانی شود که چین می تواند چنین اطلاعاتی را به توانایی های نظارتی بیفزاید که در حال حاضر شامل پرونده هایی نیز هست. این فایل ها که جمع آوری شده از دوران مائو هستند، حاوی اطلاعات شخصی و محرمانه مانند پرونده سلامت و گزارش های مدرسه هستند.
به عنوان بخشی از تحقیقات، Xiaolin Wu و Xi Zhang هوش مصنوعی مذکور را با حدود ۱۶۷۰ عکس از مردان چینی امتحان کرد که نیمی از آن ها به عنوان جنایتکار محکوم شدند. تصاویر تجزیه و تحلیل شده از کارت های شناسایی گرفته شدند که در آن مردان ۱۸ تا ۵۵ ساله، صورت خود را به کلی تراشیده بودند و حالت چهره صاف داشتند.
این دو فرد با امتحان و در نتیجه آموزش این هوش مصنوعی، در مرحله بعد ۱۸۶ تصویر دیگر به سیستم وارد کردند و از آن خواستند تا مجرمان و افراد بی گناه را از یکدیگر تشخیص دهد.
دقت حدس های این سیستم که بر اساس موارد مربوط به جرم و جنایت بودند، باعث شد تا محققان ادعا کنند که با وجود اختلاف تاریخی، افرادی که مرتکب جرم شده اند، ویژگی های منحصر به فردی در صورت خود داشتند.
شایان ذکر است که قبل از استفاده از این سیستم هوش مصنوعی در طیفی گسترده، می بایست انواع تصاویر از افراد محتلف با احذاب، جنسیت و حالات چهره متفاوت را مورد بررسی قرار داد و سیستم را به خوبی آموزش داد.
البته پیشرفت این محصول علاوه بر کاربرد آن در این زمینه، می تواند به سیستم شناسایی کشور چین کمک شایانی بکند.
اوایل سال جاری، پکن گروه تکنولوژی الکترونیک چین را استخدام کرد که بزرگ ترین پیمانکار دفاعی کشور است تا بدین ترتیب یک هوش مصنوعی ایجاد شود تا بتواند رفتار مردم در فیلم های دوربین مدار بسته را برای تشخیص نشانه هایی بررسی کند که نشان گر ارتکاب آن ها به عمل تروریستی است.
هنگامی که این سیستم به مرحله بهره برداری برسد، قادر خواهد بود تا رخداد های امنیتی را پیش بینی کند تا بدین صورت ارتش و نیز پلیس بتواند آن را در فعالیت های خود پیاده سازی کند.
در ادامه، کارشناسان حقوق دیجیتال هشدار دادند که استفاده از هوش مصنوعی در این راه می تواند خطرناک باشد و “رسیدن به نتیجه گیری کلی از این اطلاعات کوچک و بی اساس می تواند منجر به ایجاد مشکلات بزرگی برای مردم بی گناه شود.
دکتر ریچارد تیان، تکنولوژیست بین المللی حفظ حریم خصوصی گفت: این سیستم در حقیقت نمی تواند به این راحتی مورد استفاده قرار بگیرد. در واقع، می توان این ایراد اصلی را به آن گرفت که در موقع تصمیم گیری، نمی توان به قطعیت گفت که سیستم دقیقا بر چه اساسی مجرم بودن و یا نبودن فرد را مشخص می کند و آیا واقعا می توان به آن اتکا کرد؟
این موضوع نشان می دهد که ارتباط خودسرانه و پوچ این الگوریتم، هوش مصنوعی و یادگیری ماشین می تواند در مجموعه داده های کوچک خود را نشان دهد. نمی توان به اساس این فناوری ها خرده گرفت، بلکه این مشکل مربوطه به استفاده از سیستم های پیچیده در زمینه های نامناسب و نامربوط است.