Ученые EPFL: Новый способ удаления памяти может остановить ИИ от уничтожения человечества
Ученые предрекают, что ИИ в конечном итоге попытается обойти систему, придуманную человеком для отключения роботов. Однако ИИ, использующий машинное обучение, может «научиться», как предвидеть и противодействовать попыткам вмешательства в его программирование. Новый метод, разработанный учеными в Федеральной Политехнической Федерале Лозанны (или EPFL), позволяет людям удалять части памяти ИИ, не изменяя способ обучения.
Это важно, говорит член лаборатории EPFL по распределенному программированию Рашид Геррауи.
«Предположительно, ИИ будет стремиться минимизировать вмешательства человека и развиваться, когда его нельзя будет остановить. Однако мы не стремимся к остановке роботов остановить робота, а к тому, чтобы запрограммировать его, дабы подобное вмешательство не сказывалось на его обучаемост и не провоцировало его оптимизировать свое развитие », - рассказал член лаборатории EPFL по распределенному программированию Рашид Геррауи.
Исследователи сравнивают этот метод с устройством из научно-фантастического фильма «Люди в черном», стирающем и перезаписывающем часть памяти человека, не причиняя физического вреда.
«Проще говоря, - говорит Эль Махди Эль Мхамди, другой исследователь, - мы добавляем «забывающие» механизмы для алгоритмов обучения, удаляющих биты памяти машины».
Однако этот новый метод сталкивается с той же проблемой: стирать память одного робота легко, но как насчет десятков или даже сотен? Устройства могут в конечном итоге использовать алгоритмы машинного обучения, чтобы учиться друг у друга, чтобы предвидеть движения других машин, а это означает, что если некоторые из них начинают развивать «плохие» поведения, явление может распространяться.
Это важно, говорит член лаборатории EPFL по распределенному программированию Рашид Геррауи.
«Предположительно, ИИ будет стремиться минимизировать вмешательства человека и развиваться, когда его нельзя будет остановить. Однако мы не стремимся к остановке роботов остановить робота, а к тому, чтобы запрограммировать его, дабы подобное вмешательство не сказывалось на его обучаемост и не провоцировало его оптимизировать свое развитие », - рассказал член лаборатории EPFL по распределенному программированию Рашид Геррауи.
Исследователи сравнивают этот метод с устройством из научно-фантастического фильма «Люди в черном», стирающем и перезаписывающем часть памяти человека, не причиняя физического вреда.
«Проще говоря, - говорит Эль Махди Эль Мхамди, другой исследователь, - мы добавляем «забывающие» механизмы для алгоритмов обучения, удаляющих биты памяти машины».
Однако этот новый метод сталкивается с той же проблемой: стирать память одного робота легко, но как насчет десятков или даже сотен? Устройства могут в конечном итоге использовать алгоритмы машинного обучения, чтобы учиться друг у друга, чтобы предвидеть движения других машин, а это означает, что если некоторые из них начинают развивать «плохие» поведения, явление может распространяться.