Стивен Хогинг и Илон Маск готовы защитить человечество от сверхразума
Ключевые фигуры современной науки и технологий решили объединить свои усилия и разработать ряд принципов, которые помогут избежать человечеству потенциальных проблем с искусственным интеллектом (ИИ). Физик-теоретик Стивен Хокинг и изобретатель Илон Маск посчитали необходимостью определить единый свод правил, который будет гарантировать отсутствие желания у искусственного интеллекта наносить человеку вред. Об этом сообщает научное издание «Silicon Valley Business Journal».
Данный пакет необходим, чтобы обезопасить человечество от потенциально опасных действий ИИ и ответить на многие интересующие широкую публику вопросы, связанные с взаимодействием умных машин и живых существ. Илон Маск полностью уверен в том, что искусственный интеллект может быть гораздо более опасным, чем ядерное вооружение.
Стивен Хокинг разделяет мнение изобретателя и утверждает о неминуемой гибели человечества без точного контроля над деятельностью ИИ. Тем не менее, оба признают, что благодаря ИИ возможно решить целый ряд глобальных проблем, таких как загрязнение окружающей среды, увеличение темпов глобального потепления и лечение раковых болезней.
Учёные-исследователи предлагают 23 основных принципа, гарантирующих выполнение ИИ только лишь благих целей. Данные правила разделены на три категории: «Исследовательские вопросы», «Вопросы этики и ценностей» и «Долгосрочные проблемы».
В первой категории представлены ответы на вопросы, которые ставят перед собой передовые разработчики ИИ и методику финансирования высокотехнологичного производства. Во второй – затронуты аспекты обеспечения безопасности человека и способы нейтрализации угрозы. В «Долгосрочных проблемах» описаны потенциальные риски, с которыми может столкнуться человечество в тот момент, когда ИИ достигнет апогея своего развития и будет проявлять тягу к самообучению – так называемый сверхинтеллект.
Эти 23 принципа были разработаны на январской конференции проблем ИИ в январе 2017 года. В их написании, помимо Илона Маска и Стивена Хокинга, также принял участие директор компании «DeepMind» Демис Хассабис.
Материал подготовила Виолетта Потапова