به گزارش خبرگزاری آگاه، از آغاز فرآیند دیجیتالیشدن، دانشگاههای سراسر جهان همواره با پرسش «حاکمیت دیجیتال» درگیر بودهاند. این موضوع شامل مسائلی مانند تضمین انطباق برنامههای فناوری اطلاعات با مقررات حفاظت از دادهها و کاهش وابستگیهای فنی و مالی است. با این حال، هوش مصنوعی این حاکمیت دیجیتال را به شیوههای جدیدی به چالش میکشد که فراتر از این جنبههای کلاسیک است.
خطرات تهدیدکننده حاکمیت فکری
در مدارس و دانشگاهها، دانشجویان بهطور فزایندهای در فرآیندهای یادگیری خود به مدلهای زبانی بزرگ (Large Language Models) متکی میشوند. هم دانشجویان و هم پژوهشگران باتجربه، بهطور فزایندهای وظایف خود را در سرویسهای چت مبتنی بر هوش مصنوعی وارد میکنند تا ببینند چه پاسخهایی تولید میشود و سپس کار خود را بر اساس آنها ادامه میدهند.
این رویکرد تنها به وظایف مبتنی بر واقعیت محدود نمیشود، بلکه شامل تفسیر دادهها و توسعه استدلالهای علمی نیز میگردد. در نتیجه، مدلهای زبانی بزرگ تأثیر قابل توجهی — و همواره در حال گسترش — بر نتایج یادگیری و پژوهشهای علمی دارند.
در فرآیندهای علمی، رویکردی بیطرفانه و تحلیلی اساسی است. با این حال، برخلاف تصور رایج کاربران، مدلهای زبانی هوش مصنوعی موجودیتهایی عینی و بیطرف نیستند. در واقع، این مدلها از دو طریق تحت تأثیر جهانبینیهای خاص قرار میگیرند: اول، از طریق دادههای آموزشیشان (و سوگیریهای احتمالی موجود در آنها)؛ و دوم، از طریق مرحله «Fine-tuning» (تنظیم دقیق مدل پس از آموزش)، که برای جلوگیری از رفتارهای نامطلوب در استفاده عمومی انجام میشود.
این موضوع در مورد پرسشهای جهانبینانه نیز صدق میکند. پس از آموزش، مدلها اغلب به سؤالات سیاسی بحثبرانگیز، پاسخهای متفاوتی میدهند.
در هر دو کشور چین و ایالات متحده، تأثیر قوی سیاست بر شرکتهای فناوری مشهود است. بهویژه در ایالات متحده اخیراً آشکار شده که مالکان شرکتهای بزرگ فناوری میتوانند در مواقع لازم شبکههای اجتماعی خود را به سمت جریانات سیاسی خاصی سوق دهند و از آنها برای تأثیرگذاری سیاسی بر کاربران استفاده کنند. باید درک کنیم که آنها میتوانند همین کار را با مدلهای زبانی بزرگی که تحت کنترلشان هستند نیز انجام دهند.
نمونههای مستند فراوانی از این «تنظیمات سیاسی» مدلهای زبانی بزرگ وجود دارد. یکی از این نمونهها در ایالات متحده، ربات چت «گروک» (Grok) است که در تابستان ۲۰۲۵ ناگهان و بهصورت مکرر به کاربران خود درباره «نسلکشی سفیدپوستان» در آفریقای جنوبی اطلاع داد — موضوعی که شور سیاسی مالک گروک، یعنی ایلان ماسک، را برانگیخته و هرگز یک اجماع سیاسی عینی محسوب نمیشود.
بهطور مشابه، در چین، مدل «دیپسیک» (DeepSeek) بهطور منظم از ارائه اطلاعاتی درباره قتلعام میدان تیانآنمن خودداری میکند. باید فرض کنیم که تنظیمات مشابه دیگری نیز برای تقویت جهانبینیهای خاص در مدلهای هوش مصنوعی وجود دارد.
مشکل اینجاست که کاربران هوش مصنوعی تولیدی (Generative AI) معمولاً از این واقعیت بیاطلاع هستند. وسوسهای قوی وجود دارد که مدلهای زبانی بزرگ را بهعنوان موجودیتهایی عینی و کارآمد تصور کنیم. این موضوع زمانی جدیتر میشود که این مدلها در برنامههای فنی روزمره جاسازی شوند و در نقشهایی ظاهراً خنثی مانند دستیاران مجازی، سیستمهای رزرو بلیط یا حتی ابزارهای علمی فعالیت کنند.
تحقیقاتی درباره پیامدهای این فناوری بر شکلگیری نظرات آغاز شده و نتایج نگرانکنندهای بهدست داده است. برای مثال، در یک آزمایش، از کاربران خواسته شد با کمک یک ربات چت، متنی درباره ارزش شبکههای اجتماعی برای جامعه بنویسند. این ربات چت (بدون اطلاع کاربران) دیدگاههای از پیش تعیینشدهای در این زمینه داشت که کاربران اغلب آنها را بدون انتقاد در متون خود بهکار بردند. چنین آزمایشهایی نشان میدهد که رباتهای چت بهطور چشمگیری بر آنچه فکر میکنیم و مینویسیم تأثیر میگذارند.
بهوضوح، این مدلها خطر جدی برای حاکمیت فکری محسوب میشوند. بهبیان ساده، این ابزارها برای دستکاری زیرآستانی ایدهآل هستند. این موضوع باید بهویژه برای دانشگاهها و جامعه آکادمیک که آزادی اندیشه در آنها حیاتی است، نگرانکننده باشد. باید درک کنیم که مدلهای زبانی بزرگِ از پیش تعیینشده از نظر ایدئولوژیک میتوانند بدون آگاهی ما، بر استدلالهای علمیمان تأثیر بگذارند.
با توجه به اینکه هوش مصنوعی احتمالاً برای دورهای طولانی بخشی جداییناپذیر از دانشگاهها خواهد بود، دانشگاهها چه کاری میتوانند انجام دهند تا بدترین پیامدها را جلوگیری کنند؟
زیرساخت هوش مصنوعی
اول از همه، حاکمیت هوش مصنوعی مسئلهای فنی و زیرساختی است. در حالی که در روزهای اولیه عرضه کاربردهای تجاری هوش مصنوعی، دانشگاهها کاملاً وابسته به ارائهدهندگان تجاری بودند، امروزه بهتدریج در حال گرفتن فناوری هوش مصنوعی در دستان خود هستند.
از دیدگاه فنی، یک سیستم هوش مصنوعی در دانشگاه معمولاً از چندین جزء تشکیل شده است: رابط کاربری، سرویس خاصی که ارائه میدهد (مثلاً یک ربات چت)، و یک مدل زبانی بزرگ که پایه آن سرویس است.
در محیط دانشگاهی، اجزای اضافی دیگری نیز اهمیت دارند، بهویژه آنهایی که میزان قابلیت اطمینان واقعی را افزایش میدهند، مانند روش «تولید تقویتشده با بازیابی» (Retrieval-Augmented Generation). سیستم فنی کلی همچنین شامل سرورهایی است که دادهها روی آنها پردازش میشوند.
در اصل، دانشگاهها میتوانند هر یک از این اجزا را بهصورت مستقل مدیریت کنند. در این زمینه، دانشگاههای اروپایی میتوانند الگو باشند. برای نمونه، در آلمان، دانشگاهها با همکاری فراتر از مرزهای منطقهای، رابطهایی توسعه دادهاند که نیاز به انتقال دادههای شخصی هنگام دسترسی به مدلهای تجاری را کاهش میدهد.
مهمتر از آن، آنها شروع به استفاده از مدلهای زبانی بزرگ باز (Open Source) و قابل تنظیم از ارائهدهندگان مختلف کردهاند و آنها را در مراکز داده دولتی ذخیره میکنند تا تمام اعضای دانشگاه بتوانند از این خدمات استفاده کنند. تحولات مشابهی در سایر کشورهای اروپایی نیز دیده میشود.
با این حال، حتی اگر دانشگاهها زیرساخت هوش مصنوعی خود را ایجاد کنند، نمیتوانند مشکل عدم وجود مدلهای زبانی بزرگِ کاملاً بیطرف را حل کنند. بنابراین، دانشگاهها باید چندین مدل مختلف را در دسترس قرار دهند و درباره اینکه هر مدل متعلق به چه کسی است و چگونه در عمل عمل میکند، شفاف باشند.
سواد هوش مصنوعی
حتی اگر دانشگاهی چارچوب فنی مؤثری ایجاد کند، نباید در همانجا متوقف شود، چرا که هدف نهایی حاکمیت هوش مصنوعی است. اگر کاربران اصول اولیه هوش مصنوعی را درک نکنند، نمیتوانند از آن بهدرستی استفاده کنند. بنابراین، تقویت سواد هوش مصنوعی در میان تمام اعضای دانشگاه ضروری است. این سواد شامل دانش پایه در حوزههای فناوری، حقوق، اخلاق و آموزششناسی در رابطه با هوش مصنوعی میشود.
در اتحادیه اروپا، قانون هوش مصنوعی (AI Act) اکنون الزام میکند که تمام ارائهدهندگان و بهرهبرداران کاربردهای هوش مصنوعی چنین شایستگیهایی را تقویت کنند. در بخش آموزش عالی، این موضوع منجر به توسعه دورههای خودآموز و کارگاههای حضوری شده که هم در سطح تکدانشگاهی و هم در قالب اتحادیههای دانشگاهی اجرا میشوند.
در اینجا نیز مهم است که درک کنیم هر دانشگاه نیازی نیست که این کار را بهتنهایی انجام دهد، چرا که محتوای آن برای همه ذینفعان جذاب است. دانشگاهها نباید صرفاً به پیشنهادهای ارائهدهندگان تجاری متکی باشند، زیرا تعارض منافع ممکن است مانع بحث آزاد درباره برخی مسائل هوش مصنوعی شود.
علاوه بر این، یکی از درسهای مهمی که از اجرای عملی گرفته شده، این است که با توجه به تغییرات سریع و برای دستیابی به بیطرفی، این برنامهها نباید حول ابزارهای خاص باشند، بلکه باید درکی از ویژگیها و چالشهای بنیادین و عمومی هوش مصنوعی ایجاد کنند.
در عین حال، مهم است که مهارتهای افراد را تنها به کار با خود هوش مصنوعی محدود نکنیم. دانشگاهها باید آگاهی کارکنان و دانشجویان خود را نسبت به شایستگیهای علمی — مانند تفکر انتقادی و روششناسی پژوهش — افزایش دهند و نحوه توسعه و بهکارگیری آنها را بهصورت آگاهانه آموزش دهند. آموزش و یادگیری آگاهانه این شایستگیها نیز بخشی از حاکمیت هوش مصنوعی بهمعنای گسترده آن محسوب میشود.
در نهایت، حاکمیت هوش مصنوعی نیازمند شرایط چارچوبی و استراتژیهای روشن برای استفاده از هوش مصنوعی در یک مؤسسه است. این امر شامل روشنسازی مسائل حقوقی و تخصیص مسئولیتها و فرآیندهای تصمیمگیری در مورد مسائل مرتبط با هوش مصنوعی میشود.
اگر دانشگاهها استراتژی هوش مصنوعی روشنی داشته باشند، اگر زیرساختهای حیاتی هوش مصنوعی را تحت کنترل داشته باشند و اگر دانشجویان و کارکنانشان در کار با این فناوری توانمند باشند، آنگاه میتوان گفت این مؤسسات به «حاکمیت هوش مصنوعی» دست یافتهاند. رسیدن به این هدف اکنون ضرورتی فوری دارد.
پیتر زالدن مدیر مرکز آموزش و یادگیری دانشگاه رور بوخوم آلمان است. او سرپرست یکی از بزرگترین پروژههای بیندانشگاهی آلمان در زمینه هوش مصنوعی در آموزش عالی (KI:edu.nrw) و میزبان بزرگترین کنفرانس زبان آلمانی در این حوزه (Learning AID) است. این مقاله برای اولینبار در شماره جاری مجله «آموزش عالی بینالمللی» (International Higher Education) منتشر شده است.
انتهای خبر/193868/
- اخلاق حرفهای؛ راهگشای توسعه پایدار اقتصادی
- پزشکیان: مسیر حل مشکلات اقتصادی از تولید و صادرات میگذرد / تصمیمگیری باید بر اساس شواهد علمی باشد +فیلم
- مسئولیتپذیری اجتماعی پایه پایداری مدیریت و اقتصاد است
- تجار امروز دلار را به چه قیمتی می خرند؟
- جلوگیری از خروج ارز و خلق ۹۰۰ میلیون دلار ثروت؛ سکوی اقتصادی ضد تحریم بومیسازی شد
- سیاست نسبت 20 به 80 کلید بازتعادل ارزی شد/ بانک مرکزی: بازار دوم تحت کنترل تورم اداره میشود
- دستور پزشکیان روی بسته بخش خصوصی برای شرایط پسا ماشه/ اصلاح قانون مبارزه با قاچاق جدی شد
- ترخیص سهروزه کالا در گمرک با اجرای دقیق 2 ماده قانون گمرکی
- جزئیات تعرفههای جدید برق/ افزایش تصاعدی برای پله های بالای مصرف
- هواشناسی ایران 1404/7/30؛ هشدار بارشهای سیلآسا در 3 استان
- هوای تهران در آستانه وضعیت ناسالم ماند
- میانگین معوقات پرستاران به 6 ماه رسیده است/امکان محاسبه درآمد پرستاران از تعرفهها فراهم شد
- ممنوعیت دریافت کپی مدارک هویتی در مراکز تأمین اجتماعی
- حکمرانی دیجیتال در آموزش عالی؛ از منابع به سوی اثرات اجتماعی
- بانکداری اجتماعی؛ راهکار نوین تحقق کارآفرینی اجتماعی
- افت شناختی کودکان، هزینه وقت گذرانی مداوم در شبکههای اجتماعی است
- انهدام باند بزرگ توزیع و فروش سلاح در تهران/ کشف بیش از 100 قبضه کلت کمری و سلاح گرم
- شهرداری تهران قصد دورزدن قانون را دارد؟ / واگذاری تاکسی برقی به غیرتاکسیرانان، خلاف مصوبه شورا
- شایعهسازی دوباره پیرامون یک زندانی؛ تتلو سکته مغزی نداشته است
- اختلال صبحگاهی در خطوط 4 و 5 متروی تهران/ مسافران سرگردان شدند