Пакет PyPI від Mistral AI скомпрометовано шкідливим кодом, який націлюється на облікові дані розробників

За даними Decrypt, зловмисники вбудували шкідливий код у пакет програмного забезпечення Mistral AI, поширюваний через PyPI. Коли розробники використовують цей пакет у системах Linux, шкідливий код автоматично запускається: завантажує файл під назвою transformers.pyz із віддаленого сервера та запускає його у фоновому режимі. Назва файлу імітує широко використовувану бібліотеку Hugging Face Transformers. Команда Microsoft з кіберзагроз заявила, що шкідливе ПЗ насамперед краде облікові дані для входу розробників і токени доступу. Mistral підтвердив, що було скомпрометовано машину одного розробника, але інфраструктура компанії не постраждала.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів