دکتر جاناتان کومرفلد از دانشکده علوم کامپیوتر در دانشکده مهندسی دانشگاه سیدنی استرالیا گفت که این یک حرکت محتاطانه است زیرا در حال حاضر هیچ کنترلی بر نحوه استفاده از داده های داده شده به چت بات وجود ندارد. دکتر کومرفلد روی هوش مصنوعی و پردازش زبان طبیعی با تمرکز ویژه بر روی سیستمهای همکاری بین افراد و مدلهای هوش مصنوعی کار میکند.
در عین حال توجه به این نکته مهم است که استرالیا میتواند از اکتشافات علمی زیربنای DeepSeek سود ببرد. ما میتوانیم از این نوآوریها برای ساختن سیستمهای خودمان، بدون خطرات استفاده از سرویس چتبات استفاده کنیم.
پروفسور اوری گال، استاد سیستم های اطلاعات کسب و کار در دانشکده بازرگانی دانشگاه سیدنی استرالیا است. تحقیقات او بر جنبه های سازمانی و اخلاقی فناوری های دیجیتال از جمله امنیت داده ها متمرکز است. سازمانهای دولتی معمولاً اطلاعات بسیار حساس را مدیریت میکنند و نگرانیهایی وجود دارد که استفاده از هوش مصنوعی چینی مجموعه گسترده دادههای DeepSeek مانند جزئیات دستگاه، معیارهای استفاده و شناسههای شخصی در صورت دسترسی یا ذخیره در خارج از مرزهای استرالیا، اطلاعات محرمانه را در معرض آسیبپذیریها قرار دهد.
اگرچه ماهیت منبع باز این مدل شفافیت را در مورد کد آن ارائه می دهد، اما تضمین نمی کند که داده های کاربر صرفاً در استرالیا یا طبق استانداردهای حریم خصوصی محلی مدیریت شود. این خطر دسترسی به داده های فرامرزی یک عامل کلیدی در پشت این ممنوعیت است.
فراتر از برنامه های کاربردی دولتی، هوش مصنوعی مولد مانند DeepSeek خطرات بیشتری برای عموم به همراه دارد. این موارد شامل انتشار احتمالی اطلاعات نادرست، سوگیری های غیرعمدی در خروجی ها، و خطر نقض حریم خصوصی در صورت افشای ناخواسته یا سوء استفاده از داده های شخصی است.
علاوه بر این، مقیاس و اتوماسیون چنین سیستمهایی میتواند منجر به چالشهای پاسخگویی شود که میتواند تلاشها برای ردیابی و اصلاح محتوای اشتباه یا مضر را پیچیده کند. بنابراین این ممنوعیت می تواند به عنوان یک اقدام پیشگیرانه با هدف حفاظت از امنیت ملی و اعتماد عمومی تا زمانی که پادمان های حفاظتی قوی از داده ها ایجاد شود، دیده شود.
دکتر Suranga Seneviratne کارشناس حریم خصوصی و امنیت سایبری میگوید مشابه با TikTok این تصمیم با توجه به خطرات احتمالی تعجبآور نیست. مدلهای زبان LLM نگرانیهای شناختهشدهای از جمله حفظ حریم خصوصی دادهها، محرمانهبودن و امکان درهای پشتی را معرفی میکنند. همچنین علیرغم پیشرفتهای مهم اخیر LLM ها هنوز هم میتوانند توهم داشته باشند، به این معنی که خروجیهای آنها باید در شرایط بحرانی تأیید شود.
فراتر از خود هوش مصنوعی، دسترسی اپلیکیشن به دادههای کاربر مانند کلیپ بورد میتواند خطرات بیشتری را به همراه داشته باشد. یک چالش منحصر به فرد از منبع باز بودن DeepSeek ناشی می شود. در حالی که شرکت اصلی نسخه های رسمی وب و برنامه را کنترل می کند، هر کسی می تواند نمونه خود را میزبانی کند. دکتر Seneviratne از دانشکده علوم کامپیوتر در سیدنی استرالیا، دانشکده مهندسی، میگوید: «این یک ممنوعیت کامل را چالشبرانگیز میکند، اگرچه در این مورد، ممکن است خطر کم در نظر گرفته شود.
دکتر آرمین چیتی زاده، یکی از ایرانیان موفق در استرالیا و کارشناس اخلاق هوش مصنوعی در دانشکده علوم کامپیوتر، دانشکده مهندسی دانشگاه سیدنی می گوید که مردم باید در برخورد با هر گونه ابزار GenAI محتاط تر باشند. ظهور ابزارهای GenAI مسائل زیادی را مطرح کرده است و من خوشحالم که ورود DeepSeek موجی از نگرانی را ایجاد کرده است.
اولین نگرانی این است که در رقابت برای ایجاد سریعترین و بهترین هوش مصنوعی، شرکتها ممکن است نحوه ذخیره دادههای مشتری را با زمان کافی برای محافظت از آن در برابر عوامل مخرب کاهش دهند. نگرانی دوم این است که مردم اکنون تمایل دارند کورکورانه به محتوای تولید شده توسط هوش مصنوعی اعتماد کنند. هوش مصنوعی میتواند عمدا یا ناخواسته توهم ایجاد کند یا پاسخهای نادرست ارائه دهد، با این حال مردم به آن اعتماد میکنند که گویی از منابع قابل اعتماد آمده است.
سومین و احتمالاً مهمترین نگرانی این است که هوش مصنوعی میتواند به راحتی استدلال کند و از دادههای به ظاهر ناچیز کاربر نتایج مهمی بگیرد. کاربران ممکن است داده هایی را به ابزارهای GenAI ارائه دهند، با این فرض که این ابزار ارزشمند نیستند. با این حال هوش مصنوعی می تواند نقاط را به هم متصل کند و به نتایج مهمی برسد. این اطلاعات جدید استنباط شده سپس در دست صاحب ابزار GenAI است که کنترل کاملی بر استفاده و فروش آن دارد.
پروفسور کای ریمر، استاد فناوری اطلاعات و سازمان در مدرسه بازرگانی دانشگاه سیدنی و مدیر اجرایی پلاس سیدنی است که در آنجا یک دوره آموزشی اجرایی در زمینه تسلط هوش مصنوعی تدریس می کند.
این امر علاقه زیادی را ایجاد می کند زیرا هوش مصنوعی و چین هستند، اما فقط امنیت داده محتاطانه است. پروفسور ریمر می گوید: مهم نیست چین باشد یا هر کشور دیگری: داده های دولتی نباید در خارج از ساحل و خارج از سیستم های امن استرالیا نگهداری شوند.
داستان واقعی اینجاست که چگونه این پلتفرمهای منبع باز به نظر میرسد که پیشرفتهای پیشگامانی مانند OpenAI را مهندسی معکوس کرده و بر مدل کسبوکار صنعت هوش مصنوعی تأثیر میگذارند. من محصولاتی مانند DeepSeek و Meta AI را به MP3 تشبیه می کنم: آنها موسیقی ضبط شده را اختراع نکردند، اما این تکنیک فشرده سازی هوشمند تأثیر زیادی بر نحوه دسترسی ما به آن داشت.
افزایش تعرفه های تبلیغات تا روز دیگر: