Новости Казахстана Новости мира Интервью Life style Спорт Культура Регионы Amanat
$ 491.88  585.83  6.36

Нуркен Халыкберген назвал пять рисков опоры на иностранные нейросети

Использовать искусственный интеллект, созданный в другой стране, – это не нейтральное технологическое решение.

Сегодня, 15:11
Нуркен Халыкберген назвал пять рисков опоры на иностранные нейросети
Фото: Pixabay.com

Ректор университета “Мирас” Нуркен Халыкберген объяснил, в чем опасность использования искусственного интеллекта, созданного в другой стране, передает Liter.kz.

Напомним, президент Касым-Жомарт Токаев на расширенном заседании правительства поднял вопрос низкой популярности отечественной языковой модели KazLLM, отметив, что пользователи чаще выбирают международные сервисы, включая ChatGPT.

“Давайте без дипломатии. Использовать искусственный интеллект, созданный в другой стране – это не нейтральное технологическое решение. Это вопрос нашего суверенитета”, – написал ректор университета “Мирас” Нуркен Халыкберген на своей странице в Facebook.

Он подчеркнул, что большая языковая модель – это не просто программа. Это система, которая составляет формулировки, аргументы, рамку обсуждения, набор “разумных” решений.

“Если государственный аппарат, эксперты, министерства и аналитики начинают массово опираться на такую модель, они фактически подключают к своей системе управления внешний, чужой мозг. Опасность не в том, что модель “вдруг начнет врать”, – считает ректор университета “Мирас”.

Эксперт перечислил по пунктам потенциальные риски:

Во-первых, вы не контролируете ее обновления. Сегодня она отвечает так, завтра иначе. Политика допустимых тем, тональность, приоритеты, границы обсуждения – все это меняется решением компании и по законам другой страны. Пользователь зависит от чужих правил игры.

Во-вторых, модель можно настроить так, чтобы она мягко смещала акценты. Не прямой пропагандой, а “нейтральными рекомендациями”. Немного занижать одни риски, немного завышать другие. Предлагать “по умолчанию” определенные сценарии. Это не выглядит как давление. Это выглядит как здравый смысл. Но если на нее опираются тысячи пользователей, этот сдвиг постепенно становится нормой.

В-третьих, данные. Любой запрос – это информация. Даже если обещают конфиденциальность, остается вопрос юрисдикции, доступа по законам другой страны, технических уязвимостей, логирования. Государство фактически раскрывает свою управленческую кухню внешнему поставщику.

В-четвертых – деградация собственной экспертизы. Если постоянно “спрашивать модель”, то постепенно теряется навык самостоятельного анализа. Формулировать проблему, спорить, строить причинно-следственные связи становится сложнее. Компетенция уходит из людей в черный ящик, который вам не принадлежит. Потом заменить его уже нельзя – потому что люди разучились работать без него.

В-пятых – любой момент доступ могут ограничить: санкции, экспортные ограничения, конфликт. Если на этом сидят госуслуги, аналитика или образование, вы получаете системный шок.

“Может ли это реально повлиять на качество управленческих решений? Да. Потому что решения рождаются не в одном приказе. Они проходят через десятки аналитических записок, сравнений, резюме. Если на каждом этапе стоит внешняя модель, вы постепенно получаете управленческую оптику, сформированную не вами”, – считает Нуркен Халыкберген.

По его словам, это также может привести к зависимости населения, если ИИ станет посредником между людьми и знанием – в образовании, медиа, госуслугах. Тогда культурный и когнитивный слой общества начинает фильтроваться через алгоритмы, которые вам не принадлежат.

“Вывод простой. Пользоваться можно. Но превращать чужую языковую модель в системный слой государственного управления – это стратегически опасно для любой страны, которая считает себя независимой. Технологии можно заимствовать. Суверенитет – нет. И чему я особенно и дико рад, так это тому что Токаев прямо указал: “Читайте книги, учитесь думать самостоятельно!” – пишет в заключение ректор университета “Мирас”.

×