Проблемы искусственного интеллекта: мифы и реальность
Проблемы информационной безопасности информационно-коммуникационных технологий и защищённости человеческого социума от негативного воздействия искусственного интеллекта и машинного обучения. Толкование интерпретаций особенностей искусственного интеллекта.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | доклад |
Язык | русский |
Дата добавления | 17.05.2020 |
Размер файла | 590,0 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Артамонов В.А., Артамонова Е.В. Артамонов Владимир Афанасьевич - д.т.н., профессор, академик Международной академии информационных технологий (МАИТ), г. Минск. Круг научных интересов: информационно-коммуникационные технологии и их безопасность.
Артамонова Елена Владимировна - к.т.н., (PhD), член МАИТ. Руководитель и разработчик Интернет-проекта в области информационной безопасности. Круг научных интересов: Информационные технологии, кибербезопасность, блокчейн и криптовалюты, телеком, ИТ-маркетинг, системы E-learning. Республика Беларусь, г. Минск.
ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИФЫ И РЕАЛЬНОСТЬ Доклад, представленный на Международную научную конференцию «Коэволюция техники и общества в контексте цифровой эпохи».
Ключевые слова: информационно-коммуникационные технологии (ИКТ), математическая теория вычислений, искусственный интеллект (ИИ), машинное обучение (МО), нейронные сети, большие данные (big data), Интернет вещей (IoT), закон Мура, компьютерные шахматы, игра ГО, распознавание речи и образов, технологическая сингулярность, постчеловеческий мир, угрозы ИИ, цифровой колониализм, парадоксы теории множеств, гипотеза континуума, кибербезопасность.
Введение
История искусственного интеллекта, как нового самостоятельного научного направления в области информационно-коммуникационных технологий (ИКТ), начинается в середине XX века. К этому времени уже было сформировано множество предпосылок его зарождения: среди философов давно шли споры о природе человека и процессе познания мира, нейрофизиологи и психологи разработали ряд теорий относительно работы человеческого мозга и мышления, экономисты и математики задавались вопросами оптимальных расчётов и представления знаний о мире в формализованном виде. И наконец, зародился фундамент математической теории вычислений -- «теория алгоритмов», что привело к созданию первых компьютеров.
Возможности новых машин в плане скорости вычислений оказались больше человеческих, поэтому в учёном сообществе зародился вопрос: каковы границы возможностей компьютеров и достигнут ли машины уровня развития человека? В 1950 году один из пионеров в области вычислительной техники, английский учёный Алан Тьюринг пишет статью под названием «Может ли машина мыслить?», в которой описывает процедуру, с помощью которой можно будет определить момент, когда машина сравняется в плане разумности с человеком. Эта процедура получила название «тест Тьюринга». Далее, в 1956 году ученый-информатик Джон Маккарти ввел в обиход выражение «искусственный интеллект» (ИИ) для описания науки изучения разума путем воссоздания его ключевых признаков на компьютере. Создание разумной системы с помощью рукотворного оборудования вместо нашего собственного «оборудования» в виде клеток и тканей должно было стать иллюстрацией полного понимания этой проблемы, и повлечь за собой практические применения в виде создания умных устройств или даже роботов.
Со времён Тьюринга и Маккарти ИКТ прошли большой путь, развиваясь по экспоненциальному закону, и ИИ также получил соответствующий эволюционный прогресс. Появились системы машинного обучения (МО), нейронные сети, системы поиска в больших данных, Интернет вещей (IoT), компьютерные игры, системы распознавания речи и образов, роботизированные комплексы, военный ИИ и др.
Однако до настоящего времени нет единой концепции (парадигмы) анализа и синтеза систем ИИ, что породило массу мифов и догматических толкований этого научного направления.
В данной работе мы попытаемся разобраться в части сложившихся предубеждений и дать разумное толкование возникших интерпретаций особенностей ИИ.
Миф 1. Большинство исследований ИИ проводятся так, как если бы вычислительные мощности, доступные учёному, были бы постоянными на определённом отрезке времени, и в данном случае использование человеческих знаний было бы одним из единственных способов повышения результативности научного поиска.
Однако через некоторое время, может быть даже несколько меньшее, чем нужно для типичного исследовательского проекта, по закону Мура, согласно которому производительность и вычислительная мощность компьютеров увеличивается в два раза каждые пару лет, учёным становятся доступными гораздо больше вычислительных ресурсов чем в начале исследований Moore G.E. No exponential is forever: but "Forever" can be delayed! - https://ieeexplore.ieee.org/document/1234194/. В поисках улучшений, которые могут помочь в краткосрочном периоде, ученые пытаются использовать максимум человеческих знаний в этой области, но единственное, что имеет значение в долгосрочной перспективе -- это нарастающее использование вычислительных мощностей. Эти два аспекта не должны идти вразрез друг с другом, но на практике идут. Время, потраченное на один из них, не равно времени, потраченному на другой. Есть психологические обязательства по инвестированию в тот или иной подход. А подход, основанный на знаниях человека, имеет тенденцию усложнять методы таким образом, что они становятся менее подходящими для использования преимуществ общих методов, использующих вычисления.
Вывод. В исследовательских проектах нужно стараться сразу отбрасывать попытку решить задачу ИИ методом «мозгового штурма», потому что пройдет некоторый период времени, и она решится гораздо быстрее и проще, благодаря росту мощности вычислений.
Было много примеров, когда исследователи ИИ запоздало понимали этот горький урок. Рассмотрим некоторые из таких случаев. В компьютерных шахматах методы, победившие чемпиона мира Каспарова в 1997 году, основывались на массивном глубоком поиске. В то время к ним с тревогой относились большинство исследователей компьютерных шахмат, которые использовали методы, основанные на понимании человеком особой структуры шахмат. Когда более простой, основанный на поиске подход со специальным аппаратным и программным обеспечением оказался намного более эффективным, исследователи, отталкивающиеся от человеческого понимания шахмат, не признали поражения. Они сказали: «В этот раз подход грубой силы, может быть, и победил, но это он не станет общей стратегией, и уж точно люди не играют в шахматы таким образом». Эти ученые хотели, чтобы методы, основанные на человеческом способе мышления, победили, и очень разочаровались, когда этого не произошло.
Вывод. Прямое решение проблемы с помощью компьютерной вычислительной мощности возьмет свое, рано или поздно.
Аналогичная картина прогресса в исследованиях была замечена в игре ГО, превосходящей на порядок по сложности шахматы, но только с задержкой на 20 лет. Первоначально, огромные усилия направлялись для того, чтобы используя человеческие знания и особенности игры, достигнуть победы над игроком-человеком. Однако, все эти усилия оказались ненужными или даже вредными, как только исследователи эффективно применили поиск в больших данных (Big datа) и вычислительные мощности компьютеров. Также, важно было использовать машинное обучение в процессе самостоятельной игры, чтобы выявить ценностную функцию (как это было во многих других играх и даже в шахматах, только машинное обучение не играло большой роли в программе 1997 года, которая впервые обыграла чемпиона мира). Обучение игре с самим собой, обучение в целом, это как поиск, позволяющий применять огромные массивы вычислений. Поиск и обучение -- это два самых важных класса техник, которые задействуют огромные объемы вычислений в исследованиях ИИ.
В компьютерном противоборстве с человеком по игре в ГО Человек отстал от компьютера // Российская газета. - М., 2016. - № 54 (6922). - https://rg.ru/2016/03/15/chempion-mira-po-go-proigral-kompiuternoj-programme.html, как и в компьютерных шахматах, первоначальные усилия исследователей были направлены на использование человеческого понимания (чтобы использовать меньше поиска в больших данных), и лишь много позже был достигнут гораздо больший успех -- за счет использования поиска и МО.
Вывод. Поиск и машинное обучение, подпитанные вычислительной мощностью, намного превосходят попытки решить задачу «нестандартным подходом мышления».
В области распознавания речи в 1970-х годах был проведен конкурс, спонсируемый DARPA (Управление стратегических исследований министерства обороны США). Участники представляли различные методы, которые использовали преимущества человеческого знания -- знания слов или фонем, человеческого голосового тракта и так далее. По другую сторону баррикад были более новые методы, статистические по своей природе, и выполняющие больше вычислений на основе скрытых моделей Маркова. И опять же статистические методы победили методы, основанные на знаниях человека. Это привело к серьезным изменениям во всей технологии по обработке естественного языка, и в итоге, статистика и вычисления начали доминировать в этой области. Недавний рост глубокого обучения в области распознавания речи -- это самый последний шаг в этом исследовательском направлении. Методы глубокого машинного обучения еще меньше полагаются на человеческие знания и используют всё больше вычислительных ресурсов, наряду с обучением на огромных наборах данных, и выдают потрясающие результаты при реализации систем распознавания речи и образов.
Как и в играх, ученые всегда пытались создавать системы, которые будут работать так, как они представляли этот процесс в своих головах, т.е. они пытались поместить свои знания в эти системы, однако, все это выходило крайне непродуктивно, ученые просто тратили время, до тех пор, пока вследствие закона Мура, им становились доступными все более мощные компьютеры. Вследствие чего проблема решалась совершенно на другом уровне.
Вывод: нельзя входить в одну и тоже реку дважды, учиться нужно на чужих, а не на своих ошибках.
Похожая картина была и в области компьютерного зрения. Первые методы воспринимались как поиск неких контуров, обобщенных цилиндров, либо с применением возможностей SIFT (масштабно-инвариантной трансформации признаков). Но сегодня все это уже в прошлом. Современные нейронные сети с глубоким обучением используют понятие свертки и определенных инвариантов, это работает намного лучше.
В какую бы область мы ни заглянули, мы везде продолжаем совершать одни и те же ошибки. Чтобы увидеть это и эффективно побороть, нужно понять, почему эти ошибки так привлекательны. Мы должны усвоить «горький урок», состоящий в том, что построение нового, отталкиваясь от того, как мы думаем, не работает в долгосрочной перспективе.
Опыт, основанный на исторических наблюдениях, показывает, что исследователи ИИ часто пытаются встроить знание в своих агентов -- это всегда помогало в краткосрочной перспективе и приносило ученым удовлетворение, но в долгосрочной перспективе все заходило в тупик и тормозило дальнейший прогресс. Прорывной прогресс неизбежно приходил с применением противоположного подхода, основанного на масштабировании вычислений за счет поиска в больших данных и машинного обучения. Успех иногда разочаровывал исследователей и зачастую не воспринимался полностью, потому что это был успех вычислений, а не успех ориентированных на человека подходов.
Второе, что следует извлечь из этого горького урока, состоит в том, что фактическое содержание человеческого ума чрезвычайно сложное и кажущееся иногда непознаваемым. Нам стоит перестать пытаться найти простые способы осмыслить содержание ума, похожие на простые способы осмысления пространства, объектов, множественных агентов или симметрий. Все они являются частью произвольно сложного внешнего мира. Нам не стоит пытаться от них отталкиваться, потому что их сложность бесконечна. Нам стоит строить свои стратегии научного поиска в области ИИ на метаметодах, которые могут находить и улавливать эту произвольную сложность. Эти методы могут находить хорошие приближения, но поиск их должен осуществляться нашими методами, а не нами умозрительно. Нам нужны агенты ИИ, которые могут открывать новое в мироздании, как это делают люди, а не содержать то, что мы уже открыли. Построение на наших открытиях только усложняет процесс познания мира и поиска новых сущностей.
Вывод. Нужно опираться на масштабируемые вычисления и поиск, а не пытаться воспроизвести человеческие размышления и догмы в попытках объяснить сложные методы познания простыми схемами, ибо в долгосрочной перспективе сработает первое, а не последнее.
Миф 2: В результате экспоненциального роста производительности компьютеров наступит время «технологической сингулярности», когда вычислительная мощность ИИ сравняется по интеллекту с человеческим разумом, и как поведёт себя этот искусственный разум в «постчеловеческом мире» невозможно предугадать.
Для каждого периода времени развития человечества характерна своя трансформация, которую можно описать как некую совокупность промышленных технологий, позволяющих создать определенный качественный скачок в росте производительности труда. Это определение вписывается в широко принятую концепцию смены технологических укладов, где трансформация на базе ИКТ является одним из этапов (см. рис. 1). Кривая изменения экономического прогресса (роста производительности труда) отображается в виде S-образной кривой с периодами зарождения (медленного роста), активного роста и зрелости (замедления роста). Совокупность технологических инноваций приводит к смене одного уклада на другой. Каждый из этапов экономического прогресса на рис. 1 (включая стадию ИКТ) можно разделить на более мелкие части, и в каждой выделить свои трансформирующие технологии.
Осмысление экспоненциального роста технологий потребовало некоторого времени, прежде чем они получили полное признание всего за несколько лет. Этой тенденции следуют самые разные области, такие как искусственный интеллект и машинное обучение в качестве одной из ветвей развития ИКТ, робототехника, здравоохранение, электро- и самоуправляемые автомобили, образование, 3D-печать, промышленность и сельское хозяйство.
Добро пожаловать в 4-ю промышленную революцию. Добро пожаловать в Экспоненциальный Век. Эта концепция была предложена Вернором Винджем, который предположил, что если мы сумеем избежать гибели цивилизации до этого, то сингулярность произойдет из-за прогресса в области искусственного интеллекта, интеграции человека с ИКТ или других методов увеличения разума. Vinge V. (1993) The Coming Technological Singularity. - http://www- ohan.sdsu.edu/faculty/vinge/misc/singularity.html/ Усиление разума, по мнению Винджа, в какой-то момент приведет к положительной обратной связи: более разумные системы могут создать еще более интеллектуальные системы и сделать это быстрее, чем первоначальные их конструкторы - люди. Эта положительная обратная связь скорее всего окажется столь сильной, что в течение очень короткого промежутка времени (месяцы, дни или даже всего лишь часы) мир преобразится больше, чем мы сможем это представить, и внезапно окажется населен сверхразумными созданиями.
искусственный интеллект безопасность социум
Рисунок 1. Трансформирующие технологии и технологические уклады, (источник: Hilbert M., University of California)
По мнению некоторых учёных-футурологов Новоселов А. Технологическая сингулярность как ближайшее будущее человечества. - http://andrzej.virtualave.net/Articles/singularity.html/ и того же Винджа, придерживающихся концепции сингулярности, она должна наступить около 2030 года и даже по самому пессимистическому сценарию не позднее середины этого века, т.е. в 2050 году. Сторонники теории технологической сингулярности считают, что если возникнет принципиально отличный от человеческого разум (постчеловек), дальнейшую судьбу цивилизации невозможно предсказать, опираясь на человеческую логику. С понятием сингулярности часто связывают идею о невозможности предсказать, что будет после нее.
Постчеловеческий мир, который в результате появится, возможно, будет столь чуждым для нас, что сейчас мы не можем знать о нем абсолютно ничего. Единственным исключением могут быть фундаментальные законы природы, но даже тут иногда допускается существование еще не открытых законов (у нас пока нет теории квантовой гравитации) или не до конца понятых следствий из известных законов (путешествия через пространственные «дыры», рождение "вселенных-карликов", путешествия во времени и т.п.), с помощью которых постлюди смогут делать то, что мы привыкли считать физически невозможным.
Вывод. Вопрос предсказуемости важен, поскольку, не имея возможности предсказать хотя бы некоторые последствия наших действий, нет никакого смысла в том, чтобы пытаться направить развитие в желательном направлении.
Миф 3. Угрозы ИИ и кризис человечества.
Человечество стоит на пороге не только технологического, но и философского кризиса, считает историк Юваль Харари, автор книги «Sapiens: Краткая история человечества» Харари Ю. Sapiens: Краткая история человечества. - http://www.labirint.ru/books/498309/. Новые технологии формируют новые формы антиутопии. И общество пока не понимает, как адаптироваться к меняющейся реальности.
Харари вывел формулу предстоящего глобального кризиса:
В данном случае B - это познания в биологии, C - это вычислительная мощность, а D - это данные. Если помножить их друг на друга, появится возможность взламывать людей (HH - hack humans).
Под взломом исследователь подразумевает возможность управлять человеком на глубинном уровне, то есть контролировать его желания и стремления. Харари опасается, что правительства и корпорации скоро изучат людей настолько, что смогут с легкостью регулировать их мысли.
Технологии отдаленно будут напоминать таргетированную рекламу, только их действие будет более точным, а эффект - стопроцентным.
Ранее исследователь отмечал, что в сложившихся обстоятельствах привычные философские концепции отмирают. Это касается свободы воли и свободы выбора. Люди ошибочно полагают, что контролируют ситуацию, но на самом деле это не так.
Главное следствие масштабного внедрения искусственного интеллекта - это утрата человеком автономии и авторитета. При этом ИИ не обязательно выходить на один интеллектуальный уровень с людьми и обладать сознанием. Алгоритмам МО достаточно будет изучить личность досконально, чтобы найти самую слабую точку и запустить процесс манипуляций.
Общество подвержено взлому на всех уровнях, но больше всего Харари пугает биологический: «Эксперты по ИИ могут общаться с философами. С историками - да, пожалуйста. С литературными критиками - замечательно. Но меня пугает их общение с биологами», - признал он в интервью изданию Wired. Тем не менее, исследователь подчеркивает, что ИИ обладает и массой преимуществ. Особенно это касается медицины. Харари подчеркивает, что никто не станет препятствовать внедрению технологии - ведь она способна принести столько пользы людям.
Распространение ИИ в комплекте с биотехнологическими открытиями породит два возможных сценария антиутопии.
Первый: надзор-капитализм - даст алгоритмам полную власть над людьми. Машинный интеллект и МО решат за нас, где жить, работать, с кем встречаться и за кого голосовать.
Второй: укрепление тоталитаризма и диктатуры, при котором каждый житель Земли - это объект непрерывной слежки. Особую роль в этом процессе сыграют биометрические и видео-системы, которые не дадут гражданину скрыться от всевидящего ока государства.
Историк подчеркивает, люди могут даже не заметить, как оказались во власти ИИ и МО. Большинство не сможет понять, как работают механизмы алгоритмов и как именно нами манипулируют. Человечество привыкло к традиционным формам объяснения и повествования, но машинный интеллект работает со статистическими данными и оперирует другими понятиями.
Харари считает, что чрезмерное усложнение систем - одна из главных актуальных проблем. Из-за этого, например, ученым все сложнее объяснять свои теории и доносить до аудитории суть открытий.
Важный побочный эффект этого - расцвет теорий заговора. По этой причине сейчас возникает все больше антиглобалистов и тех, кто не верит в глобальное потепление. То же касается и сферы финансов - с каждым годом она усложняется, и некоторые концепции можно объяснить, только если потратить 10 лет на изучение экономики и математики. «В этом тоже выражается философский кризис», - отмечает Харари.
Он также считает, что сегодня человек борется не с отдельными людьми, а с государствами и корпорациями. Перед лицом таких мощных соперников шансов на успех мало. Более того, влияние некоторых стран выходит за географические рамки. Историк обвиняет развитые государства и крупные корпорации в цифровом колониализме.
Вывод. По мнению некоторых учёных-футурологов, после наступления технологической сингулярности, человечество ожидает технологический и философский кризис. Социум погрузится в эпоху цифрового колониализма.
Нарисованная некоторыми учёными-футурологами довольно пессимистическая картина мира после достижения человеческой цивилизацией временной точки технологической сингулярности скрашивается последними исследованиями учёных-математиков: возможности ИИ оказались небеспредельными Colors collective. - https://www.quantamagazine.org/mathematicians-measure-infinities-find-theyre-equal-20170912/. Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств.
До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений.
В январе 2019 к этой проблеме добавилась еще одна фундаментальная проблема ?-? это принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.
На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно ?- в играх, распознавании, предсказаниях и т.д.? - ?встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году Демидов С.С. «Математические проблемы» Гильберта и математика XX века // Историко-математические исследования. - М.: Янус-К, 2001. - № 41 (6). - С. 84-99..
Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1-я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.
И вот сейчас, на исходе второго десятилетия XXI века, гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех техно-оптимистов ИИ.
Машинное обучение оказалось не всесильно. И что еще хуже,?- ?в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.
Первая же научная сенсация 2019 года оказалась совершенно неожиданной. Опубликованная 7 января того же года в Nature Machine Intelligence статья «Обучаемость может быть неразрешимой» (Learnability can be undecidable) устанавливает предел возможностей машинного обучения? - ?ключевого метода вычислений, на коем стоит весь современный ИИ Ben-David S., Hrubes P., Moran S., Shpilka A., Yehudayoff A. Learnability can be undecidable // Nature Machine Intelligence. 2019. - N 1. - P. 44-48..
Этот научный вывод столь важен, что журнал Nature сопроводил статью еще двумя популярно её разъясняющими статьями «Недоказуемость приходит в машинное обучение» (Unprovability comes to machine learning) и «Машинное обучение приводит математиков к неразрешимой задаче» (Machine learning leads mathematicians to unsolvable problem).
Суть всех этих статей в следующем. Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему. Этот вывод может иметь огромное значение как для существующих, так и для будущих алгоритмов обучения. Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Гёделем в 1930-х годах.
Парадоксы? - это формально-логические противоречия, которые возникают в теории множеств и формальной логике при сохранении логической правильности рассуждения. Парадоксы возникают тогда, когда два взаимоисключающих (противоречащих) суждения оказываются в равной мере доказуемыми.
С точки зрения математики, вопрос «обучаемости» сводится к тому, сможет ли алгоритм извлечь шаблон из ограниченных данных. Ответ на этот вопрос связан с парадоксом, известным как вышеупомянутая континуум-гипотеза (проблема континуума или 1-я проблема Гильберта) и разрешенным в 1963 г. американским математиком Полом Коэном.
Решение оказалось весьма неожиданным: то, что утверждается в гипотезе континуума, нельзя ни доказать, ни опровергнуть, исходя из аксиом теории множеств. Гипотеза континуума логически независима от этих аксиом. Неспециалисту довольно трудно понять, почему утверждения такого рода играют для математики столь большую роль и ставятся на первое место в списке важнейших проблем. Отметим лишь, что на самом деле речь идет о вещах принципиальных и фундаментальных, так как континуум ?-? это, по сути, базовая математическая модель окружающей нас физической, пространственно-временной реальности (частью которой являемся и мы сами), а в математике континуум ?-? еще и синоним совокупности всех действительных чисел, также центрального понятия математики и ее рабочего инструмента.
По сути Гёдель и Коэн доказали, что континуум-гипотеза не может быть доказана ни как истинная, ни как ложная, начиная со стандартных аксиом, утверждений, принятых как истинные для теории множеств, которые обычно принимаются за основу всей математики.
Иными словами,?утверждение не может быть ни истинным, ни ложным в рамках стандартного математического языка.
Вывод. Математически доказано, что возможности ИИ не беспредельны. И какими бы огромными вычислительными ресурсами не обладал человек, машинное обучение никогда не приведёт к победе искусственного разума над человеческим.
В пользу данного доказательства говорят и последние исследования нейробиологов в области исследования структуры и возможностей человеческого мозга.
Так учёные Стэнфордского университета потратили несколько лет, разрабатывая новый способ 3D-сканирования мозга. Они совместили объёмную компьютерную томографию (array tomography -- техника «антенных решёток» из радиоастрономии) и специально разработанный софт, чтобы получить объёмную и реалистичную 3D-модель. Такую, по которой можно перемещаться, масштабировать и вращать её в разных измерениях.
Изучив полученную картину, учёные пришли к выводу, что синапсы (соединительные ткани нервных клеток) устроены гораздо сложнее, чем предполагалось раньше. Здоровый человеческий мозг содержит около 200 млрд. нервных клеток, которые соединяются друг с другом сотнями триллионов синапсов. От каждой нервной клетки могут отходить десятки тысяч синапсов. В одной только коре больших полушарий человека находится около 125 трлн. синапсов -- в 1500 раз больше, чем звёзд в нашей галактике. По результатам визуальной реконструкции данных учёные обнаружили, что каждый синапс содержит около 1000 молекулярных «переключателей», наподобие аналоговых транзисторов. То есть отдельный синапс можно сравнить с микропроцессором. Получается, что количество «транзисторов» в человеческом мозге теперь нужно увеличить на три порядка. Их больше, чем транзисторов во всех компьютерах на планете и маршрутизаторах вместе взятых В человеческом мозге столько же «транзисторов», сколько их в мировой ИТ-инфраструктуре. - https://www.cell.com/neuron/fulltext/S0896-6273(10)00766-X/.
Вывод. Получается, что один человеческий мозг по сложности примерно равен всей мировой ИТ-инфраструктуре, а учитывая тот факт, что возможности человеческого мозга задействованы человечеством максимум на 20%, говорить о победе ИИ над человеческим разумом не приходится даже в отдалённой перспективе.
Заключение
Проблемам информационной безопасности ИКТ и защищённости человеческого социума от негативного воздействия ИИ и МО уделено достаточно много внимания в ряде исследований.
Выделяются основные проблемы: нарушение работоспособности технического и программного обеспечения, распространение информационного оружия, непрерывное усложнение информационных и коммуникационных систем, возможность концентрации информационных средств в руках небольшой группы собственников, использование во вред информационных данных, манипулирование сознанием, использование технологического воздействия на психическую деятельность Артамонов В.А. Безопасность информационно-коммуникационных технологий в контексте устойчивого развития социума / В. А. Артамонов, Е. В. Артамонова, Л. А. Кулак // Цифровая трансформация. 2019. -- № 2. - С. 36-45. .
Однако, вместе с этим, технологии искусственного интеллекта рассматриваются как одно из самых действенных средств в области кибербезопасности сейчас и в будущем.
Почему ИИ -- это будущее кибербезопасности Кибербезопасность, будущее и ИИ. - https://www.securitylab.ru/contest/500573.php.
Обнаружение мошенничества, обнаружение вредоносных программ, обнаружение вторжений, оценка риска в сети и анализ поведения пользователя/машины -- это пятёрка самых актуальных способов применения ИИ для улучшения кибербезопасности. ИИ реально меняет привычные аспекты кибербезопасности. Он улучшает способность компаний предвидеть и предотвращать киберпреступления, защищает устройства с нулевым уровнем доверия, может контролировать даже устаревание паролей! Таким образом, искусственный интеллект действительно необходим для обеспечения безопасности периметров любых объектов хозяйственной или финансовой деятельности.
Поиск взаимосвязей между угрозами и анализ вредоносных файлов, подозрительных IP-адресов или необычную деятельность сотрудника длится считанные секунды или минуты. Уже сейчас ИИ помогает человеку обеспечивать кибербезопасность. А в дальнейшем его возможности будут только расширяться, делая участие человека в процессе защиты чисто номинальным.
В банках, благодаря ИИ, антифрод-системы станут работать надёжнее и быстрее, что позволит поддержать доверие и сэкономить деньги, как клиентов финансовых учреждений, так и самих банкиров. А, по мнению компании Dell, занимающейся разработкой подобных продуктов, ИИ способен защитить, контролировать и отслеживать данные в гибридных средах, а также предотвращать 99% атак вредоносного ПО.
Кроме того, ИИ вполне можно сделать облачным. Это позволит ему автоматически масштабироваться при резком повышении нагрузки (например, если хакеры пытаются «атаковать» сервер или замаскировать свою активность под лавиной типовых действий в другом направлении). «Облако» позволит расширить безопасный периметр компании, если еще и вся носимая электроника (гаджеты) будет подключена к контролируемой ИИ среде.
Размещено на Allbest.ru
Подобные документы
Сущность и проблемы определения искусственного интеллекта, его основных задач и функций. Философские проблемы создания искусственного интеллекта и обеспечения безопасности человека при работе с роботом. Выбор пути создания искусственного интеллекта.
контрольная работа [27,9 K], добавлен 07.12.2009Понятие искусственного интеллекта как свойства автоматических систем брать на себя отдельные функции интеллекта человека. Экспертные системы в области медицины. Различные подходы к построению систем искусственного интеллекта. Создание нейронных сетей.
презентация [3,0 M], добавлен 28.05.2015История создания и основные направления в моделировании искусственного интеллекта. Проблемы обучения зрительному восприятию и распознаванию. Разработка элементов интеллекта роботов. Исследования в области нейронных сетей. Принцип обратной связи Винера.
реферат [45,1 K], добавлен 20.11.2009Характеристика сущности искусственного интеллекта. Проблема создания искусственного интеллекта. Базовые положения, методики и подходы построения систем ИИ (логический, структурный, эволюционный, имитационный). Проблемы создания и реализация систем ИИ.
реферат [43,1 K], добавлен 19.07.2010Искусственный интеллект – научное направление, связанное с машинным моделированием человеческих интеллектуальных функций. Черты искусственного интеллекта Развитие искусственного интеллекта, перспективные направления в его исследовании и моделировании.
реферат [70,7 K], добавлен 18.11.2010Сущность искусственного интеллекта, сферы человеческой деятельности, в которых он распространен. История и этапы развития данного явления. Первые идеи и их воплощение. Законы робототехники. Использование искусственного интеллекта в коммерческих целях.
реферат [40,8 K], добавлен 17.08.2015Эволюция систем искусственного интеллекта. Направления развития систем искусственного интеллекта. Представление знаний - основная проблема систем искусственного интеллекта. Что такое функция принадлежности и где она используется?
реферат [49,0 K], добавлен 19.05.2006Начало современного этапа развития систем искусственного интеллекта. Особенности взаимодействия с компьютером. Цель когнитивного моделирования. Перспективы основных направлений современного развития нейрокомпьютерных технологий, моделирование интеллекта.
реферат [24,7 K], добавлен 05.01.2010История развития искусственного интеллекта в странах дальнего зарубежья, в России и в Республике Казахстан. Разработка проекта эффективного внедрения и адаптации искусственного интеллекта в человеческом социуме. Интеграция искусственного в естественное.
научная работа [255,5 K], добавлен 23.12.2014Общая характеристика дисциплины "Основы искусственного интеллекта". Ее предмет, цели и задачи. Особенности и расшифровка ряда понятийных терминов, характеризующих сущность кибернетики. Методы и алгоритмы анализа данных для получения знаний и обучения.
презентация [10,9 K], добавлен 03.01.2014