بررسی علت تغییرات سود عملیاتی "رافزا"
به گزارش کدال نگر بورس 24، شرکت رایان هم افزا در خصوص تغییرات بیش از 30 درصدی سود عملیاتی دوره 6 ماهه منتهی به 31 شهریور 1403 نسبت به دوره مشابه سال قبل توضیحاتی ارائه نمود.
در دنیایی که قرار بود هوش مصنوعی صدای انسان را بهتر بشنود، حالا صدای بسیاری را خاموش کرده است. الگوریتم هایی که روزی برای مقابله با نفرت پراکنی، خشونت، پورنوگرافی و اخبار جعلی طراحی شده بودند، حالا به ابزاری برای حذف اعتراض، افشاگری و حتی طنز سیاسی بدل شده اند. آن هم بدون اخطار، بدون توضیح و بدون امکان دفاع.
پلتفرم های بزرگی مانند فیسبوک، یوتیوب، اینستاگرام و تیک تاک با استفاده از الگوریتم های یادگیری ماشین محتوا را پالایش می کنند. اما این پالایش، اغلب محافظه کارانه و بیش از حد سخت گیرانه است. کوچک ترین اشاره به موضوعات حساس می تواند باعث حذف یا پنهان سازی محتوا شود. برای مثال، کاربران ایرانی بارها گزارش داده اند که استوری ها و پست هایشان درباره اعتراضات خیابانی یا بازداشت ها ناپدید شده یا میزان دیده شدنشان به طور مشکوکی کاهش یافته است.
در جریان حمله اسرائیل به غزه در سال 2023، فیسبوک متهم شد که به صورت سیستماتیک محتوای مرتبط با فلسطین را حذف می کند. حتی برخی کارکنان سابق متا فاش کردند که الگوریتم ها عمداً برای کاهش دیده شدن این نوع محتوا تنظیم شده اند. درواقع، آنچه زمانی تعدیل محتوا تلقی می شد، حالا به ابزار سانسور ساختاری تبدیل شده است.
مشکل اصلی اینجاست که الگوریتم ها بی رحم تر از انسان ها عمل می کنند. اگر یک کلمه یا تصویر در فهرست سیاه قرار بگیرد، دیگر مهم نیست محتوا چه هدفی داشته باشد.
قدرت های سیاسی نیز با آغوش باز از این سانسور جدید استقبال کرده اند. چین سال هاست با بهره گیری از الگوریتم های بومی، محتوای شبکه های اجتماعی را کنترل می کند. آمریکا نیز از مسیر متفاوتی وارد میدان شده و با اعمال فشار بر شرکت های فناوری، آن ها را وادار به تبعیت از دستورالعمل های خاص کرده است. در این میان، شرکت ها هم ترجیح می دهند ریسک نکنند و برای فرار از حاشیه، همه چیز را فیلتر کنند.
شرکت ها ادعا می کنند از کاربران محافظت می کنند، اما چه کسی از آزادی بیان کاربران محافظت می کند؟ وقتی حذف یا پنهان سازی محتوا برعهده مدلی است که هیچ منطق انسانی ندارد و پاسخگو هم نیست، باید زنگ خطر را به صدا درآورد. به ویژه وقتی کاربران حتی متوجه نمی شوند که صدایشان شنیده نمی شود.
یکی از پیچیده ترین اشکال سانسور مدرن، «خفه سازی سایه ای» یا Shadow Banning است. در این روش، پست نه حذف می شود و نه اخطار می گیرد؛ فقط به صورت خاموش از دید مخاطبان پنهان می شود. کاربر فکر می کند که حرفش را زده، اما در واقع هیچ کس صدایش را نمی شنود. این نوع سانسور نامرئی، خطرناک ترین شکل حذف صداست؛ بی صدا، بی هشدار، بی امکان اعتراض.
نهادهایی مثل دیده بان حقوق بشر، گزارشگران بدون مرز و بنیاد مرزهای الکترونیکی بارها درباره خطرات «سانسور الگوریتمی» هشدار داده اند. آن ها خواهان شفاف سازی الگوریتم ها، انتشار معیارهای حذف محتوا و ایجاد سازوکار اعتراض مؤثر شده اند. اما شرکت های فناوری اغلب از افشای جزییات الگوریتم های خود خودداری می کنند و آن ها را «دارایی محرمانه» می نامند.
اتحادیه اروپا با تصویب «قانون خدمات دیجیتال» (DSA) تلاش کرده تا کنترل این وضعیت را در دست بگیرد. این قانون شرکت ها را ملزم به مستندسازی الگوریتم های پالایش محتوا و فراهم کردن امکان بازبینی انسانی می کند. اما این قانون هنوز فراگیر نشده و صرفاً در کشورهای عضو اتحادیه اجرایی است. ایالات متحده، چین و بسیاری دیگر از کشورها هنوز هیچ قانون الزام آوری در این حوزه ندارند.
یکی از مشکلات اساسی مدل های هوش مصنوعی، تغذیه از داده هایی است که خود آلوده به تعصب اند. این یعنی الگوریتم ها ناخواسته می توانند روایت های خاصی را تقویت و دیگر روایت ها را سرکوب کنند. برای مثال، پستی درباره اعتراضات در غرب ممکن است به عنوان محتوای مشروع در نظر گرفته شود، اما همان پست درباره کشوری در خاورمیانه به عنوان تهدید تشخیص داده شده و حذف شود.
در جهانی که هوش مصنوعی نقش فزاینده ای در مدیریت اطلاعات دارد، خطر آن است که حتی ندانیم چه چیزی از ما پنهان شده است. امروز می توان درباره عملکرد الگوریتم ها پرسید، اما اگر شفافیت و پاسخگویی وجود نداشته باشد، فردا ممکن است حتی سؤال کردن هم ممکن نباشد.
در شرایطی که داده طلاست و توجه، سرمایه اصلی پلتفرم ها محسوب می شود، سانسور الگوریتمی نه فقط تهدیدی برای آزادی بیان بلکه خطری واقعی برای دموکراسی و حقیقت است. شاید مهم ترین سؤال ما این باشدکه چه کسی الگوریتم ها را کنترل می کند؟ و الگوریتم ها قرار است از چه کسی محافظت کنند؟
تگ ها آزادی بیان برچسب الگوریتمی
{{name}}
{{content}}