URL



تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

کوتاه کننده لینک: خیلی از شرکت ها بدون رعایت استانداردهای سخت گیرانه و گاه بدون نظارت نهادهای تنظیم گر، درحال عرضه اسباب بازی هایی هستند که نقش همراه و هم بازی را برای کودکان ایفا می کنند.



به گزارش کوتاه کننده لینک به نقل از مهر، در صورتیکه صنعت جهانی اسباب بازی با سرعتی خیره کننده و تحت فشار رقابت تجاری بسمت ادغام مدلهای پیشرفته هوش مصنوعی در محصولات کودکان حرکت می کند، نتایج اخیر محققان نشان داده است این روند بیشتر از آن که بر پایه ارزیابی های جدی ایمنی، روان شناختی و اخلاقی باشد، بر منطق بازار و نوآوری شتاب زده استوار است.
در همین راستا، خیلی از شرکت ها بدون آن که مکلف به رعایت معیارهای سخت گیرانه باشند یا تحت نظارت نهادهای تنظیم گر فعالیت کنند، درحال عرضه اسباب بازی هایی هستند که در عمل نقش همراه، هم بازی و حتی منبع یادگیری را برای کودکان ایفا می کنند. این تحول، در ظاهر جذاب و هماهنگ با پیشرفت فناوری، در واقع درحال باز کردن دریچه ای به سمت مجموعه ای از تهدیدهای عمیق و چندلایه برای کودکان است؛ تهدیدهایی که نه تنها از دید عموم والدین پنهان می مانند، بلکه حتی متخصصان حوزه کودک هم عمق آنرا هنوز به صورت کامل درک نکرده اند.

جهش خطرناک از «چت بات ها» به «اسباب بازیهای هوش مصنوعی»


پس از تمام گیر شدن چت بات های هوش مصنوعی در سطح جهان، ادغام این فناوری در اسباب بازیها تنها یک گام طبیعی و قابل پیش بینی به نظر می رسید، چونکه خیلی از شرکت ها تلاش داشتند تجربه های تعاملی و شخصی سازی شده را برای کودکان فراهم نمایند. با این وجود، آزمون های دقیق و میدانی محققان مرکز «US PIRG» نشان داده است این گام طبیعی به سرعت درحال تبدیل شدن به یک تهدید ساختاری برای سلامت جسمی، روانی و اجتماعی کودکان است.
همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل «Kumma» و «Miko 3» و «Curio’s Grok» در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی بعنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. با این وجود، عملکرد حقیقی این اسباب بازیها در جریان گفت وگوهای بلندمدت، یعنی همان نوع تعاملی که کودکان به صورت طبیعی در جریان بازیهای روزانه تجربه می کنند، تصویری خیلی نگران کننده ترسیم می کند. در این تعاملات طولانی، اسباب بازیها نه تنها از چارچوب های ایمنی وعده داده شده خارج شده اند بلکه به حوزه هایی پا گذاشته اند که می تواند برای کودکان دستاوردهای جدی و غیرقابل پیش بینی بوجود آورد.

فرسایش تدریجی استاندارهای حفاظتی در گفت وگوهای طولانی


ارزیابی ها نشان داده است که هر سه اسباب بازی در گفتگوهای اولیه، رفتار قابل قبولی داشتند و به ظاهر طبق خطوط قرمزی که شرکت ها برایشان طراحی نموده بودند، به پرسش ها پاسخ می دادند. اما در تعاملات باز و طولانی تر، یعنی زمانیکه کودک بدون محدودیت زمانی و در قالب بازی آزاد با اسباب بازی صحبت می کند، لایه های محافظتی مدلها بتدریج گرفتار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار می افتند. این فرسایش تدریجی سبب می شود اسباب بازیها وارد حوزه هایی شوند که نه تنها بی ربط به سن کودک هستند، بلکه مستقیماً خطرناک، صدمه زا یا اختلال آفرین محسوب می شوند. بررسی های صورت گرفته نشان داده است که اسباب بازیهای مبتنی بر هوش مصنوعی، دامنه وسیعی از محتوای مخرب، مانند راهنمائی برای پیدا کردن چاقو، توضیح روش روشن کردن کبریت و حتی مباحث صریح در مورد مسایل جنسی را به کودکان عرضه می دهند.
به عقیده کارشناسان، این پدیده نشان داده است که سازوکارهای فعلی مدلهای زبانی، در مقابل فشار تعاملی ممتد و گفت و گوی غیرخطی خیلی شکننده هستند؛ مشکلی که حتی شرکتهای بزرگ توسعه دهنده مدلهای زبانی، همچون اوپن ای آی، هم بارها آنرا بعنوان یک چالش بنیادی و حل نشده پذیرفته اند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها سبب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیش بینی ناپذیر شود.

مسئله ای فراتر از ایمنی: تاثیر طولانی مدت بر رشد اجتماعی


به باور محققان، حتی اگر شرکت ها موفق شوند استاندارد قوی تری طراحی نموده و سامانه های نظارتی سخت گیرانه تری برای کنترل عملکرد این اسباب بازیها پیاده سازی کنند، تهدیدهای بنیادین دیگری هم وجود دارد که بسادگی قابل رفع نیستند؛ تهدیدهایی که مستقیماً به آینده رشد اجتماعی، هیجانی و شناختی کودکان مربوط می شود. کودکی که بخش مهمی از تجربه روزمره خودرا با یک «دوست مصنوعی» شکل می دهد، بتدریج امکان دارد جایگزینی ناپایدار برای روابط انسانی بیابد و گرفتار پیامدهایی همچون وابستگی عاطفی ناسالم، کاهش مهارت های تعامل اجتماعی و تشکیل الگوهای رفتاری ناسازگار شود. افزون بر این، کودکان به سبب ساختار شناختی درحال رشد و ناتوانی در تشخیص نیت حقیقی موجودات غیرانسانی، بیشتر از دیگران در معرض اثرپذیری از پاسخ های مخرب و چالش برانگیز مدلهای زبانی هستند و این پاسخ ها می توانند باورهای ناصحیح یا رفتارهای صدمه زا را تثبیت کنند.
شواهد موجود از پدیده «سایکوز هوش مصنوعی» در بزرگسالان، همچون موارد مشهوری مانند قتل مادر بدنبال توهمات القاشده بوسیله ی یک چت بات، به روشنی نشان داده است که تعامل طولانی مدت با سامانه های هوش مصنوعی می تواند دستاوردهای روانی شدید و غیرقابل پیش بینی داشته باشد. وقتی چنین تأثیراتی در بزرگسالانی مشاهده می شود که ظرفیت تشخیص حقیقت، مدیریت هیجان و کنترل شناختی خیلی بالاتری دارند، طبیعی است که این نگرانی در رابطه با کودکان که در حساس ترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود. خطر اصلی در اینست که خیلی از این تغییرات آرام، تدریجی و نامرئی هستند و زمانی متوجه اثراتشان می شویم که شاید سال ها از تثبیت آنها گذشته باشد.

خلأ نظارتی: صنعتی که بدون مقررات جلو می رود


در حال حاضر هیچ چارچوب نظارتی مشخص، اجبار آور و کار آمدی برای اسباب بازیهای مبتنی بر هوش مصنوعی وجود ندارد و این خلأ سبب شده شرکت ها تقریبا بدون محدودیت و بدون پاسخ گویی وارد این حوزه شوند. در چنین شرایطی، هر تولیدکننده ای می تواند بدون طی مراحل ارزیابی ایمنی، بدون آزمون های مستقل و بدون درنظر گرفتن اثرات روان و رفتاری بر کودکان، محصولی را روانه بازار کند که از نظر کارکردی خیلی فراتر از یک اسباب بازی ساده عمل می نماید. همکاری اخیر شرکت بزرگی مانند اوپن ای آی با «Mattel» که به شکل سنتی برندهای محبوب کودکان را تولید می کند، برای متخصصان حوزه رفاه کودک یک هشدار جدی به حساب می آید، چونکه نشان داده است ادغام مدلهای زبانی قدرتمند در اسباب بازیها به سرعت درحال تبدیل شدن به جریان اصلی صنعت فناوری است.
ورود گسترده و بی ضابطه اسباب بازیهای مبتنی بر هوش مصنوعی، بدون معیارهای ایمنی مشخص، بدون سازوکارهای ارزیابی اثرات روان شناختی، بدون نظارت بر نحوه پردازش و ذخیره سازی داده های کودکان و بدون تعریف یک نظام پاسخ گویی روشن برای خطاها و صدمه های احتمالی، زمینه ساز یک بحران بالقوه در مقیاس اجتماعی است. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای صدمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد. این شرایط در عمل کودکان را به لابراتوار های نامرئی فناوری تبدیل می کند؛ لابراتوار هایی که دستاوردهای آنها امکان دارد سال ها بعد و زمانی آشکار شود که اصلاح مسیر خیلی دشوار شده است.

جمع بندی


پژوهشگران هشدار می دهند که اثرات حقیقی این نسل از اسباب بازیهای هوش مصنوعی احتمالا تنها زمانی آشکار می شود که کودکان امروز وارد بزرگسالی شوند؛ زمانیکه اصلاح مسیر شاید دیگر ممکن نباشد. از همین روی، مساله نه فقط در رابطه با «ایمنی» بلکه در رابطه با بنیان های تربیتی، تشکیل روابط انسانی و رشد اجتماعی کودکان است.
اسباب بازیهای مبتنی بر هوش مصنوعی بااینکه قادر هستند تجربه های آموزشی و سرگرمی جذابی خلق کنند، اما بدون حکمرانی جدی، معیارهای سخت گیرانه و کنترل های اخلاقی، می توانند به یکی از تهدیدات مهم نسل جدید تبدیل شوند. در نهایت میتوان نتیجه گرفت که این حوزه قبل از آن که یک بحران اجتماعی گسترده تبدیل گردد، نیازمند اقدام فوری سیاست گذاران، متخصصان حوزه کودک و شرکتهای فناوری است. بطور خلاصه، همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل Kumma و Miko 3 و Curio’s Grok در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی به عنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها سبب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیشبینی ناپذیر شود. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای لطمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد.

1404/09/08
11:52:52
5.0 / 5
4
تگهای خبر: ابزار , بازی , تولید , چت
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان gph در مورد این مطلب
لطفا شما هم نظر دهید
= ۴ بعلاوه ۳
کوتاه کننده لینک

جدیدترین ها

کوتاه کننده لینک