Australia
living in
IRANIANS

ممنوعیت استفاده از هوش مصنوعی چینی deepseek در استرالیا

دکتر جاناتان کومرفلد از دانشکده علوم کامپیوتر در دانشکده مهندسی دانشگاه سیدنی استرالیا گفت که این یک حرکت محتاطانه است زیرا در حال حاضر هیچ کنترلی بر نحوه استفاده از داده های داده شده به چت بات وجود ندارد. دکتر کومرفلد روی هوش مصنوعی و پردازش زبان طبیعی با تمرکز ویژه بر روی سیستم‌های همکاری بین افراد و مدل‌های هوش مصنوعی کار می‌کند.

در عین حال توجه به این نکته مهم است که استرالیا می‌تواند از اکتشافات علمی زیربنای DeepSeek سود ببرد. ما می‌توانیم از این نوآوری‌ها برای ساختن سیستم‌های خودمان، بدون خطرات استفاده از سرویس چت‌بات استفاده کنیم.

چرا استفاده از هوش مصنوعی چینی در استرالیا ممنوع شد؟ دکتر جاناتان کومرفلد از دانشکده علوم کامپیوتر در دانشکده مهندسی دانشگاه سیدنی استرالیا گفت: که این یک حرکت محتاطانه است زیرا در حال حاضر هیچ کنترلی بر نحوه استفاده از داده های داده شده به چت بات وجود ندارد.

ممنوعیت پیشگیرانه برای حفظ امنیت ملی استرالیا

پروفسور اوری گال، استاد سیستم های اطلاعات کسب و کار در دانشکده بازرگانی دانشگاه سیدنی استرالیا است. تحقیقات او بر جنبه های سازمانی و اخلاقی فناوری های دیجیتال از جمله امنیت داده ها متمرکز است. سازمان‌های دولتی معمولاً اطلاعات بسیار حساس را مدیریت می‌کنند و نگرانی‌هایی وجود دارد که استفاده از هوش مصنوعی چینی مجموعه گسترده داده‌های DeepSeek مانند جزئیات دستگاه، معیارهای استفاده و شناسه‌های شخصی در صورت دسترسی یا ذخیره در خارج از مرزهای استرالیا، اطلاعات محرمانه را در معرض آسیب‌پذیری‌ها قرار دهد.

اگرچه ماهیت منبع باز این مدل شفافیت را در مورد کد آن ارائه می دهد، اما تضمین نمی کند که داده های کاربر صرفاً در استرالیا یا طبق استانداردهای حریم خصوصی محلی مدیریت شود. این خطر دسترسی به داده های فرامرزی یک عامل کلیدی در پشت این ممنوعیت است.

فراتر از برنامه های کاربردی دولتی، هوش مصنوعی مولد مانند DeepSeek خطرات بیشتری برای عموم به همراه دارد. این موارد شامل انتشار احتمالی اطلاعات نادرست، سوگیری های غیرعمدی در خروجی ها، و خطر نقض حریم خصوصی در صورت افشای ناخواسته یا سوء استفاده از داده های شخصی است.

علاوه بر این، مقیاس و اتوماسیون چنین سیستم‌هایی می‌تواند منجر به چالش‌های پاسخگویی شود که می‌تواند تلاش‌ها برای ردیابی و اصلاح محتوای اشتباه یا مضر را پیچیده کند. بنابراین این ممنوعیت می تواند به عنوان یک اقدام پیشگیرانه با هدف حفاظت از امنیت ملی و اعتماد عمومی تا زمانی که پادمان های حفاظتی قوی از داده ها ایجاد شود، دیده شود.

منبع باز بودن DeepSeek چالش منحصر به فرد

دکتر Suranga Seneviratne کارشناس حریم خصوصی و امنیت سایبری می‌گوید مشابه با TikTok این تصمیم با توجه به خطرات احتمالی تعجب‌آور نیست. مدل‌های زبان LLM نگرانی‌های شناخته‌شده‌ای از جمله حفظ حریم خصوصی داده‌ها، محرمانه‌بودن و امکان درهای پشتی را معرفی می‌کنند. همچنین علی‌رغم پیشرفت‌های مهم اخیر LLM‌ ها هنوز هم می‌توانند توهم داشته باشند، به این معنی که خروجی‌های آنها باید در شرایط بحرانی تأیید شود.

فراتر از خود هوش مصنوعی، دسترسی اپلیکیشن به داده‌های کاربر مانند کلیپ بورد می‌تواند خطرات بیشتری را به همراه داشته باشد. یک چالش منحصر به فرد از منبع باز بودن DeepSeek ناشی می شود. در حالی که شرکت اصلی نسخه های رسمی وب و برنامه را کنترل می کند، هر کسی می تواند نمونه خود را میزبانی کند. دکتر Seneviratne از دانشکده علوم کامپیوتر در سیدنی استرالیا، دانشکده مهندسی، می‌گوید: «این یک ممنوعیت کامل را چالش‌برانگیز می‌کند، اگرچه در این مورد، ممکن است خطر کم در نظر گرفته شود.

احتیاط بیشتر کاربر از ابزارهای هوش مصنوعی

دکتر آرمین چیتی زاده، یکی از ایرانیان موفق در استرالیا و کارشناس اخلاق هوش مصنوعی در دانشکده علوم کامپیوتر، دانشکده مهندسی دانشگاه سیدنی می گوید که مردم باید در برخورد با هر گونه ابزار GenAI محتاط تر باشند. ظهور ابزارهای GenAI مسائل زیادی را مطرح کرده است و من خوشحالم که ورود DeepSeek موجی از نگرانی را ایجاد کرده است.

اولین نگرانی این است که در رقابت برای ایجاد سریع‌ترین و بهترین هوش مصنوعی، شرکت‌ها ممکن است نحوه ذخیره داده‌های مشتری را با زمان کافی برای محافظت از آن در برابر عوامل مخرب کاهش دهند. نگرانی دوم این است که مردم اکنون تمایل دارند کورکورانه به محتوای تولید شده توسط هوش مصنوعی اعتماد کنند. هوش مصنوعی می‌تواند عمدا یا ناخواسته توهم ایجاد کند یا پاسخ‌های نادرست ارائه دهد، با این حال مردم به آن اعتماد می‌کنند که گویی از منابع قابل اعتماد آمده است.

سومین و احتمالاً مهم‌ترین نگرانی این است که هوش مصنوعی می‌تواند به راحتی استدلال کند و از داده‌های به ظاهر ناچیز کاربر نتایج مهمی بگیرد. کاربران ممکن است داده هایی را به ابزارهای GenAI ارائه دهند، با این فرض که این ابزار ارزشمند نیستند. با این حال هوش مصنوعی می تواند نقاط را به هم متصل کند و به نتایج مهمی برسد. این اطلاعات جدید استنباط شده سپس در دست صاحب ابزار GenAI است که کنترل کاملی بر استفاده و فروش آن دارد.

تاثیر داستان واقعی بر صنعت هوش مصنوعی

پروفسور کای ریمر، استاد فناوری اطلاعات و سازمان در مدرسه بازرگانی دانشگاه سیدنی و مدیر اجرایی پلاس سیدنی است که در آنجا یک دوره آموزشی اجرایی در زمینه تسلط هوش مصنوعی تدریس می کند.

این امر علاقه زیادی را ایجاد می کند زیرا هوش مصنوعی و چین هستند، اما فقط امنیت داده محتاطانه است. پروفسور ریمر می گوید: مهم نیست چین باشد یا هر کشور دیگری: داده های دولتی نباید در خارج از ساحل و خارج از سیستم های امن استرالیا نگهداری شوند.

داستان واقعی اینجاست که چگونه این پلتفرم‌های منبع باز به نظر می‌رسد که پیشرفت‌های پیشگامانی مانند OpenAI را مهندسی معکوس کرده و بر مدل کسب‌وکار صنعت هوش مصنوعی تأثیر می‌گذارند. من محصولاتی مانند DeepSeek و Meta AI را به MP3 تشبیه می کنم: آنها موسیقی ضبط شده را اختراع نکردند، اما این تکنیک فشرده سازی هوشمند تأثیر زیادی بر نحوه دسترسی ما به آن داشت.

لطفا توجه فرمایید

تبلیغات در بزرگترین کامیونیتی ایرانیان مقیم استرالیا

افزایش تعرفه های تبلیغات تا روز دیگر:

روز
ساعت
دقیقه

بسته به پلن های موجود 20 تا 35 درصد افزایش خواهیم داشت