угроза причинения вреда

Концептуальный подход к классификации и сертификации роботов и сложных автоматизированных информационных систем

Введение. С развитием и распространением роботов, систем искусственного интеллекта и сложных автоматизированных информационных систем связана проблема причинения вреда их решениями и действиями, а также проблема юридической ответственности за этот вред. Теоретический анализ. Одной из основных функций юридической ответственности является общая и частная превенция. В применении к роботам она требует их перепрограммирования, переобучения или ликвидации. Таким образом, с проблемой юридической ответственности автономных и временами непредсказуемых программно-технических механизмов напрямую связан экзистенциальный вопрос о возможности, формах и условиях их существования. Системная правовая конструкция, направленная на обеспечение безопасности и предсказуемости при создании и эксплуатации роботов может быть построена на основе классифицирующего стандарта, причем с каждым классом будут связаны определенные формы и модели ответственности. Эмпирический анализ. Основой правовой классификации роботов и сложных автоматизированных информационных систем будут являться угрозы, связанные с причинением вреда в результате их самопроизвольных действий и решений, соотнесенные с формами юридической ответственности. Могут быть выделены угрозы: причинения смерти человека; неправомерного изменения правового статуса субъекта; причинения материального вреда; нарушения личных неимущественных прав лица; информации или иному имуществу владельца (пользователя), не связанная с причинением вреда третьим лицам; угроза противоправного поведения роботов. Результаты. Предложена классификация роботов и сложных автоматизированных систем, а также подходы к юридической ответственности и обеспечению безопасности для каждого класса, указаны направления перспективной разработки правовых и технических стандартов, необходимых для обеспечения данной классификации и сертификации.