В компании Google так и не осознали потенциальные риски, связанные с бездумной гонкой за развитием технологий искусственного интеллекта (ИИ). Об этом 25 февраля заявил член Совета по развитию гражданского общества и правам человека (СПЧ), журналист, автор и ведущий программы «Итоги с Малькевичем», заведующий кафедрой социальных коммуникаций Азовского государственного педагогического университета Александр Малькевич.

Комментируя предупреждение бывшего генерального директора Google Эрика Шмидта об угрозе использования искусственного интеллекта террористами и «государствами-изгоями», эксперт отметил, что, судя по текущей стратегии компании, это понимание так и не передалось его преемникам.
«Google начинала с громких обещаний сделать мир лучше, но, обретя власть, сосредоточилась исключительно на расширении своего влияния. Ярким примером этого стал отказ компании от обязательства не использовать ИИ в военных целях, что вызывает серьезные опасения», ― указал Малькевич.
По его словам, эта ситуация наглядно показывает, что даже самые громкие заявления технологических гигантов об ответственном подходе к разработкам не стоит воспринимать всерьез.
Член Общественной палаты РФ, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП) РУДН Никита Данюк подчеркнул, что ИИ обладает колоссальным потенциалом как для созидания, так и для разрушения.
«Печально осознавать, что многие лидеры технологической индустрии приходят к этому пониманию лишь после того, как покидают свои посты, теряя возможность реально влиять на политику компании», ― посетовал член ОП.
Данюк считает, что подобная халатность недопустима для организации масштаба Google, чьи решения оказывают глобальное воздействие на общество.
«Вместо того чтобы действовать превентивно и внедрять строгие этические стандарты, компания продолжает двигаться в погоне за прибылью и влиянием, игнорируя потенциальные риски», ― констатировал эксперт.
Ранее бывший глава Google заявил, что искусственный интеллект может стать оружием массового разрушения. Он сравнил угрозу ИИ с трагедией 11 сентября 2001 года, когда технологии в руках террористов привели к массовым жертвам. В этой связи он указал на необходимость государственного контроля в этой сфере.
Шмидт признал, что технологические компании долгое время недооценивали влияние искусственного интеллекта. Он отметил, что 15 лет назад никто не осознавал масштаба грядущих изменений, но теперь компании вынуждены учитывать не только возможности, но и риски новых технологий.
Как сообщало ИА Регнум, компания Google удалила из своих принципов применения искусственного интеллекта пункт, не позволяющий использовать такие технологии для разработки оружия. Представитель компании пояснил, что демократические страны должны быть лидерами в разработке ИИ и руководствоваться при этом такими основными ценностями, как свобода, равенство и уважение прав человека.
Экс-руководитель группы Google по этике ИИ Маргарет Митчелл заявила об обеспокоенности по поводу изменения компанией принципов применения этих технологий. Она отметила, что такое решение обнулит всю проделанную специалистами в области этики искусственного интеллекта и активистами Google работу, и теперь компания может начать создавать технологии, которые будут способны убивать людей.
В начале декабря президент России Владимир Путин указал на важность правового регулирования вопросов, связанных с использованием ИИ. Глава государства уточнил, что нужно обеспечить и эффективно использовать все эти возможности для развития экономики и социальной сферы, но в то же время и обеспечить безопасность наших граждан и их права, включая право на частную жизнь.
Свежие комментарии