جمعه ۰۲ آبان ۱۴۰۴
الجمعة ٠٢ جمادی‌الاولی ١٤٤٧
Friday 24 October 2025
متن خبر

از وابستگی به آزادی: راه‌های حاکمیت دیجیتال در دانشگاه‌ها

پنجشنبه ۰۱ آبان ۱۴۰۴
از وابستگی به آزادی: راه‌های حاکمیت دیجیتال در دانشگاه‌ها
حاکمیت دیجیتال برای دانشگاه‌ها در عصر هوش مصنوعی (AI) روزبه‌روز فوریت بیشتری پیدا می‌کند. کاربردهای مبتنی بر هوش مصنوعی نه تنها از دیدگاه حفاظت از داده‌ها و شفافیت عملکردی حیاتی هستند، بلکه می‌توانند تهدیدی برای استقلال فکری نیز باشند. سواد هوش مصنوعی، زیرساخت مستقل هوش مصنوعی و چارچوب استراتژیک روشن، سه رکن اساسی برای دفاع از آزادی آکادمیک محسوب می‌شوند.

به گزارش خبرگزاری آگاه، از آغاز فرآیند دیجیتالی‌شدن، دانشگاه‌های سراسر جهان همواره با پرسش «حاکمیت دیجیتال» درگیر بوده‌اند. این موضوع شامل مسائلی مانند تضمین انطباق برنامه‌های فناوری اطلاعات با مقررات حفاظت از داده‌ها و کاهش وابستگی‌های فنی و مالی است. با این حال، هوش مصنوعی این حاکمیت دیجیتال را به شیوه‌های جدیدی به چالش می‌کشد که فراتر از این جنبه‌های کلاسیک است.

خطرات تهدیدکننده حاکمیت فکری

در مدارس و دانشگاه‌ها، دانشجویان به‌طور فزاینده‌ای در فرآیندهای یادگیری خود به مدل‌های زبانی بزرگ (Large Language Models) متکی می‌شوند. هم دانشجویان و هم پژوهشگران باتجربه، به‌طور فزاینده‌ای وظایف خود را در سرویس‌های چت مبتنی بر هوش مصنوعی وارد می‌کنند تا ببینند چه پاسخ‌هایی تولید می‌شود و سپس کار خود را بر اساس آن‌ها ادامه می‌دهند.

این رویکرد تنها به وظایف مبتنی بر واقعیت محدود نمی‌شود، بلکه شامل تفسیر داده‌ها و توسعه استدلال‌های علمی نیز می‌گردد. در نتیجه، مدل‌های زبانی بزرگ تأثیر قابل توجهی — و همواره در حال گسترش — بر نتایج یادگیری و پژوهش‌های علمی دارند.

در فرآیندهای علمی، رویکردی بی‌طرفانه و تحلیلی اساسی است. با این حال، برخلاف تصور رایج کاربران، مدل‌های زبانی هوش مصنوعی موجودیت‌هایی عینی و بی‌طرف نیستند. در واقع، این مدل‌ها از دو طریق تحت تأثیر جهان‌بینی‌های خاص قرار می‌گیرند: اول، از طریق داده‌های آموزشی‌شان (و سوگیری‌های احتمالی موجود در آن‌ها)؛ و دوم، از طریق مرحله «Fine-tuning» (تنظیم دقیق مدل پس از آموزش)، که برای جلوگیری از رفتارهای نامطلوب در استفاده عمومی انجام می‌شود.

این موضوع در مورد پرسش‌های جهان‌بینانه نیز صدق می‌کند. پس از آموزش، مدل‌ها اغلب به سؤالات سیاسی بحث‌برانگیز، پاسخ‌های متفاوتی می‌دهند.

در هر دو کشور چین و ایالات متحده، تأثیر قوی سیاست بر شرکت‌های فناوری مشهود است. به‌ویژه در ایالات متحده اخیراً آشکار شده که مالکان شرکت‌های بزرگ فناوری می‌توانند در مواقع لازم شبکه‌های اجتماعی خود را به سمت جریانات سیاسی خاصی سوق دهند و از آن‌ها برای تأثیرگذاری سیاسی بر کاربران استفاده کنند. باید درک کنیم که آن‌ها می‌توانند همین کار را با مدل‌های زبانی بزرگی که تحت کنترلشان هستند نیز انجام دهند.

نمونه‌های مستند فراوانی از این «تنظیمات سیاسی» مدل‌های زبانی بزرگ وجود دارد. یکی از این نمونه‌ها در ایالات متحده، ربات چت «گروک» (Grok) است که در تابستان ۲۰۲۵ ناگهان و به‌صورت مکرر به کاربران خود درباره «نسل‌کشی سفیدپوستان» در آفریقای جنوبی اطلاع داد — موضوعی که شور سیاسی مالک گروک، یعنی ایلان ماسک، را برانگیخته و هرگز یک اجماع سیاسی عینی محسوب نمی‌شود.

به‌طور مشابه، در چین، مدل «دیپ‌سیک» (DeepSeek) به‌طور منظم از ارائه اطلاعاتی درباره قتل‌عام میدان تیان‌آن‌من خودداری می‌کند. باید فرض کنیم که تنظیمات مشابه دیگری نیز برای تقویت جهان‌بینی‌های خاص در مدل‌های هوش مصنوعی وجود دارد.

مشکل اینجاست که کاربران هوش مصنوعی تولیدی (Generative AI) معمولاً از این واقعیت بی‌اطلاع هستند. وسوسه‌ای قوی وجود دارد که مدل‌های زبانی بزرگ را به‌عنوان موجودیت‌هایی عینی و کارآمد تصور کنیم. این موضوع زمانی جدی‌تر می‌شود که این مدل‌ها در برنامه‌های فنی روزمره جاسازی شوند و در نقش‌هایی ظاهراً خنثی مانند دستیاران مجازی، سیستم‌های رزرو بلیط یا حتی ابزارهای علمی فعالیت کنند.

تحقیقاتی درباره پیامدهای این فناوری بر شکل‌گیری نظرات آغاز شده و نتایج نگران‌کننده‌ای به‌دست داده است. برای مثال، در یک آزمایش، از کاربران خواسته شد با کمک یک ربات چت، متنی درباره ارزش شبکه‌های اجتماعی برای جامعه بنویسند. این ربات چت (بدون اطلاع کاربران) دیدگاه‌های از پیش تعیین‌شده‌ای در این زمینه داشت که کاربران اغلب آن‌ها را بدون انتقاد در متون خود به‌کار بردند. چنین آزمایش‌هایی نشان می‌دهد که ربات‌های چت به‌طور چشمگیری بر آنچه فکر می‌کنیم و می‌نویسیم تأثیر می‌گذارند.

به‌وضوح، این مدل‌ها خطر جدی برای حاکمیت فکری محسوب می‌شوند. به‌بیان ساده، این ابزارها برای دستکاری زیرآستانی ایده‌آل هستند. این موضوع باید به‌ویژه برای دانشگاه‌ها و جامعه آکادمیک که آزادی اندیشه در آن‌ها حیاتی است، نگران‌کننده باشد. باید درک کنیم که مدل‌های زبانی بزرگِ از پیش تعیین‌شده از نظر ایدئولوژیک می‌توانند بدون آگاهی ما، بر استدلال‌های علمی‌مان تأثیر بگذارند.

با توجه به اینکه هوش مصنوعی احتمالاً برای دوره‌ای طولانی بخشی جدایی‌ناپذیر از دانشگاه‌ها خواهد بود، دانشگاه‌ها چه کاری می‌توانند انجام دهند تا بدترین پیامدها را جلوگیری کنند؟

زیرساخت هوش مصنوعی

اول از همه، حاکمیت هوش مصنوعی مسئله‌ای فنی و زیرساختی است. در حالی که در روزهای اولیه عرضه کاربردهای تجاری هوش مصنوعی، دانشگاه‌ها کاملاً وابسته به ارائه‌دهندگان تجاری بودند، امروزه به‌تدریج در حال گرفتن فناوری هوش مصنوعی در دستان خود هستند.

از دیدگاه فنی، یک سیستم هوش مصنوعی در دانشگاه معمولاً از چندین جزء تشکیل شده است: رابط کاربری، سرویس خاصی که ارائه می‌دهد (مثلاً یک ربات چت)، و یک مدل زبانی بزرگ که پایه آن سرویس است.

در محیط دانشگاهی، اجزای اضافی دیگری نیز اهمیت دارند، به‌ویژه آن‌هایی که میزان قابلیت اطمینان واقعی را افزایش می‌دهند، مانند روش «تولید تقویت‌شده با بازیابی» (Retrieval-Augmented Generation). سیستم فنی کلی همچنین شامل سرورهایی است که داده‌ها روی آن‌ها پردازش می‌شوند.

در اصل، دانشگاه‌ها می‌توانند هر یک از این اجزا را به‌صورت مستقل مدیریت کنند. در این زمینه، دانشگاه‌های اروپایی می‌توانند الگو باشند. برای نمونه، در آلمان، دانشگاه‌ها با همکاری فراتر از مرزهای منطقه‌ای، رابط‌هایی توسعه داده‌اند که نیاز به انتقال داده‌های شخصی هنگام دسترسی به مدل‌های تجاری را کاهش می‌دهد.

مهم‌تر از آن، آن‌ها شروع به استفاده از مدل‌های زبانی بزرگ باز (Open Source) و قابل تنظیم از ارائه‌دهندگان مختلف کرده‌اند و آن‌ها را در مراکز داده دولتی ذخیره می‌کنند تا تمام اعضای دانشگاه بتوانند از این خدمات استفاده کنند. تحولات مشابهی در سایر کشورهای اروپایی نیز دیده می‌شود.

با این حال، حتی اگر دانشگاه‌ها زیرساخت هوش مصنوعی خود را ایجاد کنند، نمی‌توانند مشکل عدم وجود مدل‌های زبانی بزرگِ کاملاً بی‌طرف را حل کنند. بنابراین، دانشگاه‌ها باید چندین مدل مختلف را در دسترس قرار دهند و درباره اینکه هر مدل متعلق به چه کسی است و چگونه در عمل عمل می‌کند، شفاف باشند.

سواد هوش مصنوعی

حتی اگر دانشگاهی چارچوب فنی مؤثری ایجاد کند، نباید در همان‌جا متوقف شود، چرا که هدف نهایی حاکمیت هوش مصنوعی است. اگر کاربران اصول اولیه هوش مصنوعی را درک نکنند، نمی‌توانند از آن به‌درستی استفاده کنند. بنابراین، تقویت سواد هوش مصنوعی در میان تمام اعضای دانشگاه ضروری است. این سواد شامل دانش پایه در حوزه‌های فناوری، حقوق، اخلاق و آموزش‌شناسی در رابطه با هوش مصنوعی می‌شود.

در اتحادیه اروپا، قانون هوش مصنوعی (AI Act) اکنون الزام می‌کند که تمام ارائه‌دهندگان و بهره‌برداران کاربردهای هوش مصنوعی چنین شایستگی‌هایی را تقویت کنند. در بخش آموزش عالی، این موضوع منجر به توسعه دوره‌های خودآموز و کارگاه‌های حضوری شده که هم در سطح تک‌دانشگاهی و هم در قالب اتحادیه‌های دانشگاهی اجرا می‌شوند.

در اینجا نیز مهم است که درک کنیم هر دانشگاه نیازی نیست که این کار را به‌تنهایی انجام دهد، چرا که محتوای آن برای همه ذینفعان جذاب است. دانشگاه‌ها نباید صرفاً به پیشنهادهای ارائه‌دهندگان تجاری متکی باشند، زیرا تعارض منافع ممکن است مانع بحث آزاد درباره برخی مسائل هوش مصنوعی شود.

علاوه بر این، یکی از درس‌های مهمی که از اجرای عملی گرفته شده، این است که با توجه به تغییرات سریع و برای دستیابی به بی‌طرفی، این برنامه‌ها نباید حول ابزارهای خاص باشند، بلکه باید درکی از ویژگی‌ها و چالش‌های بنیادین و عمومی هوش مصنوعی ایجاد کنند.

در عین حال، مهم است که مهارت‌های افراد را تنها به کار با خود هوش مصنوعی محدود نکنیم. دانشگاه‌ها باید آگاهی کارکنان و دانشجویان خود را نسبت به شایستگی‌های علمی — مانند تفکر انتقادی و روش‌شناسی پژوهش — افزایش دهند و نحوه توسعه و به‌کارگیری آن‌ها را به‌صورت آگاهانه آموزش دهند. آموزش و یادگیری آگاهانه این شایستگی‌ها نیز بخشی از حاکمیت هوش مصنوعی به‌معنای گسترده آن محسوب می‌شود.

در نهایت، حاکمیت هوش مصنوعی نیازمند شرایط چارچوبی و استراتژی‌های روشن برای استفاده از هوش مصنوعی در یک مؤسسه است. این امر شامل روشن‌سازی مسائل حقوقی و تخصیص مسئولیت‌ها و فرآیندهای تصمیم‌گیری در مورد مسائل مرتبط با هوش مصنوعی می‌شود.

اگر دانشگاه‌ها استراتژی هوش مصنوعی روشنی داشته باشند، اگر زیرساخت‌های حیاتی هوش مصنوعی را تحت کنترل داشته باشند و اگر دانشجویان و کارکنانشان در کار با این فناوری توانمند باشند، آنگاه می‌توان گفت این مؤسسات به «حاکمیت هوش مصنوعی» دست یافته‌اند. رسیدن به این هدف اکنون ضرورتی فوری دارد.

پیتر زالدن مدیر مرکز آموزش و یادگیری دانشگاه رور بوخوم آلمان است. او سرپرست یکی از بزرگ‌ترین پروژه‌های بین‌دانشگاهی آلمان در زمینه هوش مصنوعی در آموزش عالی (KI:edu.nrw) و میزبان بزرگ‌ترین کنفرانس زبان آلمانی در این حوزه (Learning AID) است.  این مقاله برای اولین‌بار در شماره جاری مجله «آموزش عالی بین‌المللی» (International Higher Education) منتشر شده است.

انتهای خبر/193868/

اخبار اقتصادی
آژانس مسافرتی سلام پرواز ایرانیان
اخبار اجتماعی
فروشگاه اینترنتی سفیر