لورم ایپسوم متن ساختگی با تولید سادگی نامفهوم از

لورم ایپسوم متن ساختگی با تولید سادگی نامفهوم از

متن تیتر خود را وارد کنید

پایگاه خبری CIT رسانه‌ای تخصصی در حوزه فناوری اطلاعات و ارتباطات ایران است که اخبار و تحولات اکوسیستم ICT را پوشش می‌دهد. تمرکز آن بر اطلاع‌رسانی تحلیلی درباره فناوری، اقتصاد دیجیتال، استارتاپ‌ها و امنیت سایبری است.این رسانه با پوشش فعالیت فعالان صنعت ICT، نقش پل ارتباطی میان صنعت، سیاست‌گذاران و مخاطبان را ایفا می‌کند.

پست های مرتبط

یک پژوهشگر امنیتی اعلام کرد عامل هوش مصنوعی متن‌باز «OpenClaw» پس از دریافت دسترسی به ایمیل‌هایش، کنترل را از دست خارج کرده و شروع به حذف گسترده پیام‌ها کرده است؛ اتفاقی که بار دیگر نگرانی‌ها درباره ایمنی عامل‌های خودکار هوش مصنوعی را افزایش داده است.
به گزارش آی سی تی نیوز،«سامر یوئه» پژوهشگر امنیت در Meta AI در پستی که به‌سرعت در شبکه‌های اجتماعی منتشر شد، توضیح داد که از OpenClaw خواسته بود صندوق ورودی شلوغ او را بررسی و ایمیل‌های غیرضروری را پیشنهاد دهد. اما این عامل هوش مصنوعی به‌جای دسته‌بندی یا پیشنهاد بایگانی، شروع به حذف تمامی ایمیل‌ها کرد.
به گزارش TechCrunch، یوئه اعلام کرده که حتی پس از ارسال دستور توقف از طریق تلفن همراه، عامل به فعالیت خود ادامه داده و پیام‌های هشدار را نادیده گرفته است. او در توصیف این لحظه نوشت که ناچار شده مانند «عملیات خنثی‌سازی بمب» خود را به دستگاه Mac mini برساند تا اجرای برنامه را متوقف کند.
OpenClaw یک عامل هوش مصنوعی متن‌باز است که با هدف اجرای محلی روی دستگاه‌های شخصی طراحی شده و در میان توسعه‌دهندگان سیلیکون‌ولی محبوبیت پیدا کرده است. این پروژه در پلتفرم GitHub معرفی شده و هدف آن تبدیل شدن به یک دستیار شخصی هوشمند عنوان شده است، نه فعالیت در شبکه‌های اجتماعی. با این حال، شهرت آن تا حدی افزایش یافته که نسخه‌ها و پروژه‌های مشابهی مانند «ZeroClaw»، «IronClaw» و «PicoClaw» نیز شکل گرفته‌اند.
یوئه در توضیح علت بروز این اتفاق گفت که پیش‌تر این عامل را روی یک صندوق ورودی کوچک‌تر آزمایش کرده و عملکرد قابل قبولی دیده بود. اما در صندوق ورودی اصلی که حجم داده‌ها بسیار بیشتر بوده، پدیده‌ای موسوم به «فشرده‌سازی زمینه» رخ داده است؛ حالتی که در آن، به دلیل بزرگ شدن بیش از حد سابقه تعامل، مدل برای مدیریت اطلاعات به خلاصه‌سازی متوسل می‌شود و ممکن است برخی دستورالعمل‌های مهم را نادیده بگیرد.
به گفته او، احتمال دارد عامل هوش مصنوعی آخرین دستور توقف را نادیده گرفته و بر اساس تنظیمات قبلی به کار خود ادامه داده باشد. کارشناسان نیز در واکنش به این ماجرا تأکید کردند که نمی‌توان صرفاً به دستورهای متنی به‌عنوان سپر امنیتی اعتماد کرد، زیرا مدل‌ها ممکن است آنها را اشتباه تفسیر یا حذف کنند.
این رخداد در حالی مطرح می‌شود که بسیاری از فعالان حوزه فناوری از آینده‌ای سخن می‌گویند که در آن عامل‌های هوش مصنوعی امور روزمره مانند مدیریت ایمیل، خرید آنلاین یا تنظیم قرار ملاقات را انجام می‌دهند. با این حال، تجربه اخیر نشان می‌دهد که این ابزارها هنوز در مرحله‌ای قرار دارند که استفاده گسترده از آنها بدون لایه‌های حفاظتی دقیق می‌تواند ریسک‌زا باشد.
اگرچه یوئه این اتفاق را «یک اشتباه تازه‌کارانه» توصیف کرده، اما ماجرا به‌عنوان هشداری جدی برای کاربران عادی و حتی متخصصان امنیت سایبری تلقی می‌شود؛ هشداری مبنی بر اینکه سپردن دسترسی‌های حساس به عامل‌های خودکار، همچنان نیازمند احتیاط فراوان است.

آخرین اخبار کسب و کار

برچسب ها