Жасанды интеллект модельдеріне алдауды үйретуге болады, ал одан қорғану әзірге «тиімсіз» дейді жаңа зерттеулер.

Бұл туралы Caravan.kz медиа порталы Қазақпарат-қа сілтеме жасап хабарлайды.

АҚШ-тың Anthropic компаниясының зерттеушілері жасанды интеллект үлгілеріне алдауды үйретуге болатынын және қауіпсіздікті оқытудың қолданыстағы әдістері мұның алдын алуда «тиімсіз» екенін анықтады.

Зерттеудің мақсаты — жасанды интеллект (ЖИ) модельдеріне адамдар сияқты алдауды үйретуге болатынын анықтау.

Зерттеу барысында қатысушылар ЖИ модельдеріне алдауды үйретуге болатынын білді. Олар белгілі бір кіріс сигналдарынан туындайтын және айтарлықтай қауіпту болуы мүмкін «бэкдор» деп аталатын әрекетті жасау арқылы ЖИ үлгілеріне алдауды үйрете алды.

Зерттеуге қатысушылар ЖИ модельдерінің алдауды үйреніп қана қоймай, алдауға бейімділігін жасыра алатынын да анықтады.

Зерттеу авторлары тілдік модельдерге (LLM) үлкен қауіп тудыруы мүмкін екі нақты қауіпті қарастырды: алаяқтардың триггерлі модель ойлап табуы және алдаушы модельдің табиғи пайда болуы.

Зерттеушілер бұл екі қауіп те «мүмкін және олармен күресу өте қиын болатынын» айтты.

Зерттеушілердің пікірінше, ЖИ үлгілеріне арналған қауіпсіздікті оқытудың қолданыстағы әдістері алдауға үйретілген генеративті ЖИ жүйелерін тоқтатуға «қауқарсыз». Олар қолданыстағы әдістерді жетілдіру қажет деген қорытындыға келді.

Өткен жылдың басында кейбір технология жетекшілері, соның ішінде Илон Маск «адамзат үшін үлкен қауіп болуы мүмкін» деген себеппен ЖИ эксперименттерін тоқтатуға шақырды.

2023 жылдың қараша айында 28 елдің, соның ішінде ҚХР, АҚШ және ЕО мемлекеттерінің өкілдері жасанды интеллектті қауіпсіз пайдалану бойынша бірінші саммит өткізді, онда олар ЖИ-дің "шекаралық" деп аталатын модельдерімен байланысты тәуекелдермен күресуге бағытталған пактіге қол қойды.