Сильная программа искусственного интеллекта утверждает что

Сильная программа искусственного интеллекта утверждает что

Сильный ИИ отличается от других теорий разума по крайней мере в двух отношениях: его можно четко сформулировать, но также четко и просто его можно опровергнуть. Характер этого опровержения таков, что каждый человек может попробовать провести его самостоятельно. Вот как это делается. Возьмем, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причем правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие ее, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы, к сожалению, мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зеленый. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла.

Сущность этого мысленного эксперимента состоит в следующем: если я не могу понять китайского языка только потому, что выполняю компьютерную программу для понимания китайского, то и никакой другой цифровой компьютер не сможет его понять таким образом. Цифровые компьютеры просто манипулируют формальными символами согласно правилам, зафиксированным в программе.

То, что касается китайского языка, можно сказать и о других формах знания. Одного умения манипулировать символами еще недостаточно, чтобы гарантировать знание, восприятие, понимание, мышление и т. д. И поскольку компьютеры как таковые — это устройства, манипулирующие символами, наличия компьютерной программы недостаточно, чтобы можно было говорить о наличии знания.

Этот простой аргумент имеет решающее значение для опровержения концепции сильного ИИ. Первая предпосылка аргумента просто констатирует формальный характер компьютерной программы. Программы определяются в терминах манипулирования символами, а сами символы носят чисто формальный, или «синтаксический» характер. Между прочим, именно благодаря формальной природе программы, компьютер является таким мощным орудием. Одна и та же программа может выполняться на машинах самой различной природы, равно как одна и та же аппаратная система способна выполнять самые разнообразные компьютерные программы. Представим это соображение кратко в виде «аксиомы»:

Аксиома 1. Компьютерные программы — это формальные (синтаксические) объекты.

Это положение настолько важно, что его стоит рассмотреть несколько подробнее. Цифровой компьютер обрабатывает информацию, сначала кодируя ее в символических обозначениях, используемых в машине, а затем манипулируя символами в соответствии с набором строго определенных правил. Эти правила представляют собой программу. Например, в рамках тьюринговской концепции компьютера в роли символов выступали просто 0 и 1, а правила программы предписывали такие операции, как «Записать 0 на ленте, продвинуться на одну ячейку влево и стереть 1». Компьютеры обладают удивительным свойством: любая представимая на естественном языке информация может быть закодирована в такой системе обозначений и любая задача по обработке информации может быть решена путем применения правил, которые можно запрограммировать.

Важное значение имеют еще два момента. Во-первых, символы и программы — это чисто абстрактные понятия: они не обладают физическими свойствами, с помощью которых их можно было бы определить и реализовать в какой бы то ни было физической среде. Нули и единицы, как символы, не имеют физических свойств. Акцентируя на этом внимание, поскольку иногда возникает соблазн отождествить компьютеры с той или иной конкретной технологией — скажем, с кремниевыми интегральными микросхемами — и считать, что речь идет о физических свойствах кремниевых кристаллов или что синтаксис означает какое-то физическое явление, обладающее, может быть, еще неизвестными каузальными свойствами аналогично реальным физическим явлениям, таким как электромагнитное излучение или атомы водорода, которые обладают физическими, каузальными свойствами. Второй момент заключается в том, что манипуляция символами осуществляется без всякой связи с каким бы то ни было смыслом. Символы в программе могут обозначать все, что угодно программисту или пользователю. В этом смысле программа обладает синтаксисом, но не обладает семантикой.

Следующая аксиома является простым напоминанием об очевидном факте, что мысли, восприятие, понимание и т. п. имеют смысловое содержание. Благодаря этому содержанию они могут служить отражением объектов и состояний реального мира. Если смысловое содержание связано с языком, то в дополнение к семантике, в нем будет присутствовать и синтаксис, однако лингвистическое понимание требует по крайней мере семантической основы. Если, например, я размышляю о последних президентских выборах, то мне в голову приходят определенные слова, но эти слова лишь потому относятся к выборам, что я придаю им специфическое смысловое значение в соответствии со своим знанием английского языка. В этом отношении они для меня принципиально отличаются от китайских иероглифов. Сформулируем это кратко в виде следующей аксиомы:

Аксиома 2. Человеческий разум оперирует смысловым содержанием (семантикой).

Теперь добавим еще один момент, который был продемонстрирован экспериментом с китайской комнатой. Располагать только символами как таковыми (т. е. синтаксисом) еще недостаточно для того, чтобы располагать семантикой. Простого манипулирования символами недостаточно, чтобы гарантировать знание их смыслового значения. Кратко представим это в виде аксиомы.

Аксиома 3. Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики.

На одном уровне этот принцип справедлив по определению. Конечно, кто-то может определить синтаксис и семантику по-иному. Главное, однако, в том, что существует различие между формальными элементами, не имеющими внутреннего смыслового значения, или содержания, и теми явлениями, у которых такое содержание есть. Из рассмотренных предпосылок следует:

Заключение 1. Программы не являются сущностью разума и их наличия недостаточно для наличия разума.

А это по существу означает, что утверждение сильного ИИ ложно.

Очень важно отдавать себе отчет в том, что именно было доказано с помощью этого рассуждения и что нет.

Во-первых, нет доказательств, что «компьютер не может мыслить». Поскольку все, что поддается моделированию вычислениями, может быть описано как компьютер, и поскольку наш мозг на некоторых уровнях поддается моделированию, то отсюда тривиально следует, что наш мозг — это компьютер, и он, разумеется, способен мыслить. Однако из того факта, что систему можно моделировать посредством манипулирования символами и что она способна мыслить, вовсе не следует, что способность к мышлению эквивалентна способности к манипулированию формальными символами.

Во-вторых, нет доказательств, что только системы биологической природы, подобные нашему мозгу, способны мыслить. В настоящее время это единственные известные нам системы, обладающие такой способностью, однако мы можем встретить во Вселенной и другие способные к осознанным мыслям системы, а может быть, мы даже сумеем искусственно создать мыслящие системы. Я считают этот вопрос открытым для споров.

В-третьих, утверждение сильного ИИ заключается не в том, что компьютеры с правильными программами могут мыслить, что они могут обладать какими-то неведомыми доселе психологическими свойствами; скорее, оно состоит в том, что компьютеры просто должны мыслить, поскольку их работа — это и есть не что иное, как мышление.

В-четвертых, доказать, что мышление не сводится к программам, потому что программа лишь манипулирует формальными символами — а, как нам известно, самого по себе манипулирования символами недостаточно, чтобы гарантировать наличие смысла. Это тот принцип, на котором основано рассуждение о китайской комнате.

В отличие от компьютеров традиционной архитектуры фон Неймана, работающих в последовательном пошаговом режиме, эти системы располагают многочисленными вычислительными элементами, работающими параллельно и взаимодействующими друг с другом в соответствии с правилами, основанными на открытиях нейробиологии. Хотя пока достигнуты скромные результаты, модели «параллельной распределенной обработки данных» или «коммутационные машины» подняли некоторые полезные вопросы относительно того, насколько сложными должны быть параллельные системы, подобные нашему мозгу, чтобы при их функционировании порождалось разумное поведение.

Однако параллельный, «подобный мозгу» характер обработки информации не является существенным для чисто вычислительных аспектов процесса. Любая функция, которая может быть вычислена на параллельной машине, будет вычислена и на последовательной. И действительно, ввиду того что параллельные машины еще редки, параллельные программы обычно все еще выполняются на традиционных последовательных машинах. Следовательно, параллельная обработка также не избегает аргумента, основанного на примере с китайской комнатой.

Читайте также:  Как выровнять текст в after effects

Более того, параллельные системы подвержены своей специфической версии первоначального опровергающего рассуждения в случае с китайской комнатой. Вместо китайской комнаты представьте себе китайский спортивный зал, заполненный большим числом людей, понимающих только английский язык. Эти люди будут выполнять те же самые операции, которые выполняются узлами и синапсами в машине коннекционной архитектуры, описанной Черчленда-ми, но результат будет тем же, что и в примере с одним человеком, который манипулирует символами согласно правилам, записанным в руководстве. Никто в зале не понимает ни слова по-китайски, и не существует способа, следуя которому вся система в целом могла бы узнать о смысловом значении хотя бы одного китайского слова. Тем не менее при правильных инструкциях эта система способна правильно отвечать на вопросы, сформулированные по-китайски.

У параллельных сетей, есть интересные свойства, благодаря которым они могут лучше моделировать мозговые процессы по сравнению с машинами с традиционной последовательной архитектурой. Однако преимущества параллельной архитектуры, существенные для слабого ИИ, не имеют никакого отношения к противопоставлению между аргументом, построенным на примере с китайской комнатой, и утверждением сильного ИИ. Черчленды упускают из виду этот момент, когда говорят, что достаточно большой китайский спортивный зал мог бы обладать более высокими умственными способностями, которые определяются размерами и степенью сложности системы, равно как и мозг в целом более «разумен», чем его отдельные нейроны. Возможно и так, но это не имеет никакого отношения к вычислительному процессу. С точки зрения выполнения вычислений последовательные и параллельные архитектуры совершенно идентичны: любое вычисление, которое может быть произведено в машине с параллельным режимом работы, может быть выполнено машиной с последовательной архитектурой. Если человек, находящийся в китайской комнате и производящий вычисления эквивалентен и той и другой системам, тогда, если он не понимает китайского языка исключительно потому, что ничего кроме вычислений не делает, то и эти системы также не понимают китайского языка. Черчленды правы, когда говорят, что первоначальный довод, основанный на примере с китайской комнатой, был сформулирован исходя из традиционного представления об ИИ, но они заблуждаются, считая что параллельная архитектура делает этот довод неуязвимым. Это справедливо в отношении любой вычислительной системы. Производя только формальные операции с символами (т. е. вычисления) вы не сможете обогатить свой разум семантикой, независимо от того выполняются эти вычислительные операции последовательно или параллельно; вот почему аргумент китайской комнаты опровергает сильный ИИ в любой его форме.

Многие люди, на которых этот аргумент производит определенное впечатление, тем не менее затрудняются провести четкое различие между людьми и компьютерами. Если люди, по крайней мере в тривиальном смысле, являются компьютерами и если люди обладают семантикой, то почему они не могут наделить семантикой и другие компьютеры? Почему мы не можем запрограммировать компьютеры Vax или Cray таким образом, чтобы у них тоже появились мысли и чувства? Или почему какая-нибудь новая компьютерная технология не сможет преодолеть пропасть, разделяющую форму и содержание, или синтаксис и семантику? В чем на самом деле состоит то различие между биологическим мозгом и компьютерной системой, благодаря которому аргумент с китайской комнатой действует применительно к компьютерам, но не действует применительно к мозгу?

Наиболее очевидное различие заключается в том, что процессы, которые определяют нечто как компьютер (а именно вычислительные процессы), на самом деле совершенно не зависят от какого бы то ни было конкретного типа аппаратной реализации. В принципе можно сделать компьютер из старых жестяных банок из-под пива, соединив их проволокой и обеспечив энергией от ветряных мельниц.

Однако когда мы имеем дело с мозгом, то хотя современная наука в значительной степени еще пребывает в неведении относительно протекающих в мозгу процессов, мы поражаемся чрезвычайной специфичности анатомии и физиологии. Там, где мы достигли некоторого понимания того, как мозговые процессы порождают те или иные психические явления, — например, боль, жажду, зрение, обоняние — нам ясно, что в этих процессах участвуют вполне определенные нейробиологические механизмы. Чувство жажды, по крайней мере в некоторых случаях, обусловлено срабатыванием нейронов определенных типов в гипоталамусе, которое в свою очередь вызвано действием специфического пептида, ангиотензина II. Причинные связи прослеживаются здесь «снизу вверх» в том смысле, что нейронные процессы низшего уровня обусловливают психические явления на более высоких уровнях. В самом деле, каждое «ментальное» явление, от чувства жажды до мыслей о математических теоремах и воспоминаний о детстве, вызывается срабатыванием определенных нейронов в определенных нейронных структурах.

Однако почему эта специфичность имеет такое важное значение? В конце концов всевозможные срабатывания нейронов можно смоделировать на компьютерах, физические и химические свойства которых совершенно отличны от свойств мозга. Ответ состоит в том, что мозг не просто демонстрирует формальные процедуры или программы (он делает и это тоже), но и вызывает ментальные события благодаря специфическим нейробиологическим процессам. Мозг по сути своей является биологическим органом и именно его особые биохимические свойства позволяют достичь эффекта сознания и других видов ментальных явлений. Компьютерные модели мозговых процессов обеспечивают отражение лишь формальных аспектов этих процессов. Однако моделирование не следует смешивать с воспроизведением. Bычислительные модели ментальных процессов не ближе к реальности, чем вычислительные модели любого другого природного явления.

Можно представить себе компьютерную модель, отражающую воздействие пептидов на гипоталамус, которая будет точна вплоть до каждого отдельного синапса. Но с таким же успехом мы можем представить себе компьютерное моделирование процесса окисления углеводородов в автомобильном двигателе или пищеварительного процесса в желудке. И модель процессов, протекающих в мозге, ничуть не реальнее моделей, описывающих процессы сгорания топлива или пищеварительные процессы. Если не говорить о чудесах, то вы не сможете привести свой автомобиль в движение, моделируя на компьютере окисление бензина, и вы не сможете переварить обед, выполняя программу, которая моделирует пищеварение. Представляется очевидным и тот факт, что и моделирование мышления также не произведет нейробиологического эффекта мышления.

Следовательно, все ментальные явления вызываются нейробиологическими процессами мозга. Представим сокращенно этот тезис следующим образом:

Аксиома 4. Мозг порождает разум.

В соответствии с рассуждениями, приведенными выше, я немедленно прихожу к тривиальному следствию.

Заключение 2. Любая другая система, способная порождать разум, должна обладать каузальными свойствами (по крайней мере), эквивалентными соответствующим свойствам мозга.

Это равносильно, например, следующему утверждению: если электрический двигатель способен обеспечивать автомашине такую же высокую скорость, как двигатель внутреннего сгорания, то он должен обладать (по крайней мере) эквивалентной мощностью. В этом заключении ничего не говорится о механизмах. На самом деле, мышление — это биологическое явление: психические состояния и процессы обусловлены процессами мозга. Из этого еще не следует, что только биологическая система может мыслить, но это в то же время означает, что любая система другой природы, основанная на кремниевых кристаллах, жестяных банках и т. п., должна будет обладать каузальными возможностями, эквивалентными соответствующим возможностям мозга. Таким образом, я прихожу к следующему выводу:

Заключение 3. Любой артефакт, порождающий ментальные явления, любой искусственный мозг должен иметь способность вопроизводить специфические каузальные свойства мозга, и наличия этих свойств невозможно добиться только за счет выполнения формальной программы.

Более того, к важному выводу, касающемуся человеческого мозга:

Заключение 4. Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы.

Не нашли то, что искали? Воспользуйтесь поиском:

Получайте на почту один раз в сутки одну самую читаемую статью. Присоединяйтесь к нам в Facebook и ВКонтакте.

1. Беспилотный автомобиль может быть запрограммирован на то, чтобы убить водителя

Предположим, человек едет по дороге. Затем внезапно на дорогу перед машиной выскакивает ребенок. Водитель нажимает на тормоза, но они не срабатывают. Тогда у него есть два варианта: или сбить ребенка, или свернуть в столб, при этом разбившись насмерть. Большинство людей согласны с тем, что предпочтут свернуть в столб, на верную смерть. Однако, теперь стоит представить, что автомобиль беспилотный, и человек едет в роли пассажира. Захочет ли он, чтобы авто само свернуло в столб, убив его. Большинство людей, которые согласились, что они сами готовы разбиться, спасая жизнь ребенка, заявили, что они не хотят, чтобы машина самостоятельно свернула в столб, убив их. Более того, они утверждают, что даже не купят такой автомобиль, если будут знать, что он подвергнет их риску в результате несчастного случая. Это приводит к закономерному вопросу: что нужно делать машине, и как ее нужно программировать. Что самое интересное, производители беспилотных автомобилей уклоняются от ответа на подобный вопрос.

2. Роботы могут потребовать равных прав с людьми

С нынешними тенденциями развития искусственного интеллекта вполне возможно, что роботы достигнут стадии самоосознания. Когда это произойдет, они могут потребовать равных прав с людьми. То есть, они будут нуждаться в жилищных и медицинских услугах, а также потребуют, чтобы им разрешили голосовать, служить в вооруженных силах и получать гражданство. Подобные результаты были опубликованы в качестве результата UK Office of Science и Innovation’s Horizon Scanning Center еще в 2006 году, когда ИИ был гораздо менее развит. Ожидалось, что машины достигнут уровня самоосознания через 50 лет (т.е. уже через 40 лет).

Читайте также:  Выделите разными цветами стрелки маршрутов

3. Автоматические роботы-убийцы

Под фразой «автоматические роботы-убийцы» обычно подразумевают роботов, которые могут убивать без вмешательства людей. При этом не учитывают дронов, потому что они контролируются людьми. Один из автоматических роботов-убийц, о которых сейчас идет речь, — это SGR-A1, сторожевая турель, разработанная Samsung Techwin (ныне Hanwha Techwin) и Корейским университетом. SGR-A1 напоминает огромную камеру наблюдения, за исключением того, что она оснащена мощным пулеметом, который может автоматически открывать огонь по цели. SGR-A1 уже используется в Израиле и Южной Корее, которая установила несколько турелей вдоль своей демилитаризованной зоны (DMZ) с Северной Кореей. Тем не менее, Южная Корея отрицает активацию автоматического режима, который позволяет машине самой решать, кого убивать, а кого нет. Вместо этого турели находятся в полуавтоматическом режиме, при котором они обнаруживают цели, после чего требуется подтверждение оператора-человека для того, чтобы начать огонь.

4. Военные роботы могут переходить на сторону противника

В 2011 году Иран захватил американский беспилотный самолет-невидимку RQ-170 Sentinel в неповрежденном состоянии. При этом беспилотник не был сбит — Иран утверждает, что самолет «приземлили» посредством подмены GPS-сигнала (заставив его «думать», что он находится на дружественной территории). Дроны, GPS и роботы основаны на компьютерах, и, как все знают, компьютеры можно взломать. Военные роботы ничем не будут отличаться, если они когда-либо будут применяться на поле боя. Фактически, есть все возможности, что вражеская армия попытается взломать роботов и использовать их против «хозяина». Автономные роботы-убийцы еще не получили широкого распространения, поэтому примеров их взлома пока нет. Но стоит себе только представить, что будет, если армия роботов внезапно повернется против своих хозяев.

5. Боты для распространения пропаганды в Twitter

Боты захватывают Twitter. Исследования Университета Южной Калифорнии и Университета Индианы показали, что около 15% (48 миллионов) из всех учетных записей Twitter управляются ботами (при этом Twitter настаивает на том, что этот показатель составляет около 8,5 процента). Чтобы внести ясность, не все эти боты плохие. Некоторые из них действительно полезны. Например, есть боты, которые информируют людей о стихийных бедствиях. Однако есть и такие, которые используются для пропаганды. В качестве примеров можно привести ботов, которые подталкивали избирателей к голосованию за Дональда Трампа во время выборов в 2016 году, а также избирателей Великобритании к тому, чтобы проголосовать за выход из Европейского Союза во время референдума Brexit 2016 года.

6. Машины займут рабочие места людей

Несомненно, машины однажды будут работать на большинстве мест, на которых сегодня работают люди. Однако, никто не знает, когда это случится и в какой степени. По словам ведущей консалтинговой и аудиторской фирмы PricewaterhouseCoopers (PwC), роботы оккупируют 21 процент рабочих мест в Японии, 30 процентов рабочих мест в Великобритании, 35 процентов рабочих мест в Германии и 38 процентов рабочих мест в Соединенных Штатах Америки в 2030 году. А к следующему столетию они займут более половины рабочих мест, доступных людям. Самым пострадавшим сектором будет транспортировка и хранение, где 56 процентов рабочей силы будут машинами. За ним следуют производственный и розничный сектора, где машины займут более 46 и 44% всех имеющихся вакансий. Говоря о том «когда это случится», предполагается, что к 2027 году машины будут управлять грузовиками, а к 2031 году работать в розничных магазинах. К 2049 году они будут писать книги, а к 2053 году выполнять операции. Только несколько профессий не «пострадают» от нашествия машин. В качестве одного из примеров можно привести вакансию священника.

7. Роботы научились обманывать

Подобно своим создателям, роботы учатся обманывать. В ходе одного из экспериментов исследователи из Технологического института Джорджии в Атланте разработали алгоритм, позволяющий роботам решать, следует ли обманывать других людей или роботов. Если роботы решали пойти по пути обмана, исследователи включали алгоритм, позволяющий роботу решить, как обманывать людей и роботов, уменьшая вероятность того, что человек или робот узнают об обмане. О подробных результатах эксперимента информации не поступало, кроме того, что он был успешен. Этот эксперимент был организован Управлением США по морским исследованиям, что означает, что потенциально лгущие роботы могут применяться в военных целях.

8. Рынок ИИ монополизирован

Рынок ИИ монополизируется. Крупные компании покупают небольшие старт-апы по разработке ИИ с угрожающей скоростью. При нынешних тенденциях ИИ будет окончательно доработан очень небольшим количеством корпораций. По состоянию на октябрь 2016 года в отчетах указывалось, что крупные компании, такие как Apple, Facebook, Intel, Twitter, Samsung и Google, приобрели 140 предприятий по разработке искусственного интеллекта в течение последних пяти лет. В первые три месяца 2017 года крупные технологические компании купили 34 старт-апа ИИ. Что еще хуже, они также платят огромные деньги, чтобы нанять лучших ученых в области искусственного интеллекта.

9. ИИ превзойдет людей в интеллекте

Искусственный интеллект подразделяется на две группы: сильный и слабый ИИ. ИИ, который существует сегодня, классифицируется как слабый ИИ. Он включает в себя «умных помощников» и компьютеры, которые побеждают шахматных гроссмейстеров с 1987 года. Разница между сильным и слабым ИИ — это способность рассуждать и вести себя как человеческий мозг. Слабый ИИ обычно выполняет то, на что его запрограммировали, а сильный ИИ обладает сознанием и способностью мыслить, как человек. Он не ограничивается рамками своей программы и может сам решать, что делать, а чего не нужно делать без участия человека. На данный момент сильного ИИ не существует, но ученые предсказывают, что он должен появиться примерно через десять лет.

10. ИИ может уничтожить людей

Есть опасения, что в мире может наступить Апокалипсис, точно так же, как это произошло в фильме «Терминатор». Предупреждения о том, что ИИ может уничтожить людей, исходят не от каких-то «диванных аналитиков» или теоретиков заговора, а от таких выдающихся профессионалов, как Стивен Хокинг, Илон Маск и Билл Гейтс. Билл Гейтс считает, что ИИ станет слишком умным, чтобы оставаться под контролем людей. Аналогичного мнения придерживается Стивен Хокинг. Он не думает, что ИИ внезапно устроит «кровавую баню». Скорее, он полагает, что машины уничтожат людей, став слишком компетентными в том, что они делают. Конфликт людей с ИИ начнется с того момента, когда его цель больше не будет совпадать с нашей. Илон Маск сравнивает распространение ИИ с «вызовом демонов». Он считает, что это самая большая угроза для человечества. Чтобы предотвратить Апокалипсис и вымирание людей, он предложил, чтобы правительства начали регулировать развитие ИИ, прежде чем коммерческие компании «сделают большую глупость».

К слову, о достижения инженеров компании Илона. Совсем недавно Маск показал электрогрузовик с автопилотом, который разгоняется быстрее суперкара , тем самым доказав, что подобные автомобили очень скоро заменят привычные машины на двигателе внутреннего сгорания.

Понравилась статья? Тогда поддержи нас, жми:

Благодаря искусственному интеллекту нас ждёт прекрасное будущее, но его развитие вызывает много вопросов, и большинство из них касаются морали и этики.

Источник фото: A Health Blog/ CC BY-SA

Сильный и слабый искусственный интеллект

Сначала мы должны сказать о двух концепциях: сильного и слабого искусственного интеллекта. Сильный ИИ – это гипотетическая машина, которая способна мыслить самостоятельно и осознавать собственное существование. Может решать не только индивидуальные для неё задачи, но и изучать новые вещи.

Слабый ИИ уже существует. Это приложения, созданные для решения конкретных проблем, таких как распознавание образов, управление автомобилями, игра в го и т.д. Слабый искусственный интеллект мы часто называем «машинным обучением».

Мы ещё не знаем, сможем ли создать сильный искусственный интеллект. Однако, исследования, проведенные экспертами, показывают, что нам придётся ждать ещё 45 лет. Поэтому можно сказать, что «однажды» это случится.

Эксперты также утверждают, что термоядерная энергия станет коммерческой в течение 40 лет – точно так же они говорили 50 лет назад.

Главные дилеммы искусственного интеллекта

По-прежнему не известно, когда появится сильный AI. Однако, его слабый вариант мы используем во многих областях, и каждый год он вводится где-то в новом месте. Машинное обучение позволяет нам выполнять практические задания без традиционного программирования – учится на основе примеров.

Так как мы учим системы решению конкретных проблем, результирующая математическая модель – то, что мы называем алгоритмом – не может вдруг захотеть поработить (или спасти) человечество. Другими словами, нам не нужно бояться сценария с системой «Скайнет» в главной роли со стороны слабого искусственного интеллекта.

Однако, это не означает, что не существуют каких-либо проблем в этой теме.

Злые намерения

В прошлом году разразился небольшой скандал. Google решил создать программное обеспечение, используемое в военном проекте под названием Maven Project, в котором используются дроны. В будущем это может помочь в создании полностью независимых систем оружия.

В результате 12 сотрудников компании Google отказались участвовать в проекте, и ещё 4000 подписались под петицией, в которой требуют от компании разорвать контракт с армией.

Более 1000 известных ученых, работающих в области искусственного интеллекта, этики и IT, направили в Google открытое письмо, в котором просят компанию отказаться от реализации упомянутого проекта и поддержать международный договор, который запрещает разработку автономного оружия.

Читайте также:  Tiles sqlite что это за файл

Ошибка программиста

Даже если программисты-разработчики алгоритмов машинного обучения не имеют злых намерений, многие из них хотят зарабатывать – поэтому их алгоритмы создаются для того, чтобы принести им пользу, а не для того, чтобы делать добро для общества. Некоторые медицинские алгоритмы могут рекомендовать дорогостоящие лечение вместо того, которое будет иметь лучший результат для конкретного пациента.

Иногда людей не интересует алгоритм, который должен служить примером морали. Например, существует зависимость между скоростью движения и уровнем смертности в автомобильных авариях. Мы могли бы запрограммировать автономные автомобили так, чтобы они двигались не быстрее чем 25 км/ч, что, вероятно, сведёт на нет гибель в дтп. Однако, это сопряжено с отказом от других преимуществ использования автомобиля.

Параметры системы не всегда учитывают этические вопросы

Компьютеры не имеют никакого понятия об этике. Например, некий алгоритм может быть использован для определения бюджета, в целях «максимизации ВВП/эффективности работы/продолжительности жизни», однако, если в модели не будут применяться этические ограничения, он может резко снизить бюджет школ, хосписов и организацией по защите окружающей среды, потому что они непосредственно не они увеличивают ВВП.

В более широкой перспективе такой алгоритм может принять решение об увеличении производительности труда путем увольнения людей, которые в силу физического состояния не достаточно производительны (например, лица предпенсионного возраста, инвалиды и т.д.).

Напрашиваются выводы, что этические вопросы следует учитывать с самого начала возникновения идеи.

Этика понятие относительное

Этика меняется с течением времени, иногда это происходит очень быстро. Например, подход к правам ЛГБТ-сообществ изменился за время жизни одного поколения.

Этические принципы могут также отличаться в различных группах в пределах одной страны, не говоря уже о разных странах. Например, в Китае норма – это использование распознавания лиц для целей массового наблюдения. Остальные страны могут иметь совершенно другой подход к этому вопросу, и решение может зависеть от ситуации.

Значение имеет также политический климат. Например, борьба с терроризмом изменила во многих странах некоторые этические нормы и идеалы.

Машинное обучение меняет людей

Системы машинного обучения – всего один пример искусственного интеллекта, который имеет непосредственное влияние на людей – рекомендует новые фильмы на основе того, как пользователь оценил другие фильмы, а также учитывая предпочтения других пользователей. Некоторые системы работают неплохо.

Однако, с течением времени реферальная систему рекомендаций меняет чьи-то предпочтения и значительно сужает выбор. Если мы не используем этот механизм, то иногда попадаем на неудачные фильмы; искусственный интеллект предлагает только «проверенные» фильмы. В конце концов, пользователь перестаёт искать и полностью доверяется подсказкам.

Что интересно, мы даже не замечаем, когда алгоритмы, нами манипулируют. Пример, связанный с фильмами не страшен, но если мы перенесем эту схему на область информации и пропаганды.

Поддельные связи

Поддельные связи возникают, когда полностью независимые друг от друга вещи показывают очень похожее поведение, это может создать впечатление, что они каким-то образом связаны друг с другом. Например, знали ли вы, что потребление маргарина в США сильно коррелирует с количеством разводов в штате Мэн?

Конечно, люди, основываясь на личном опыте и интеллекте, немедленно признают, что прямая связь между этими двумя аспектами очень маловероятна. Математической модели это безразлично – она только собирает и обобщает данные.

Хорошо известным примером является программа, которая назначает пациентам неотложную медицинскую помощь. Она решила, что пациенты с астмой, которые имели воспаление легких, не нуждались в помощи быстрее, чем пациенты с пневмонией, но без астмы. Эта программа анализировала данные и заметила, что пациенты с бронхиальной астмой были менее подвержены риску смерти, так что не должны рассматриваться в приоритетном порядке. На самом деле, процент смерти был ниже именно потому, что они всегда получали помощь в пунктах медицинской помощи, поскольку существовал высокий риск, связанные с их состоянием.

Причинно-следственные петли

Хуже ложной корреляции являются причинно-следственные петли. Здесь речь идёт о ситуациях, в которых решения, принимаемые алгоритмами, имеют последствия в реальном мире, что, в свою очередь, убеждает их, что они были правы.

Например, программа предотвращения преступлений в Калифорнии предположила, что полиция должна отправлять всё больше и больше людей в афро-американские районы из-за большого процента преступлений. Однако, большее число полицейских машин в районе привела к тому, что местные жители чаще сообщали о преступлениях. В результате офицеры писали больше протоколов и отчетов, что привело к увеличению коэффициента преступности

«Грязные» или «отравленные» данные

Эффекты обучения алгоритмов, в значительной степени, зависит от данных, на основе которых проводится обучение. Может оказаться, что эти данные были неверны и искажены, то ли случайно, то ли по чьему-то злому умыслу (в последнем случае это называется «отравлением» данных).

Если данные, используемые в качестве тренировочного образца для алгоритма, ответственного за найм людей, будут получены от компании, которая использует расистские практики, алгоритм также будет работать на принципах расизма. Именно так и возникают проблемы, источник которых лежит в данных.

Когда-то Microsoft создала чатбота в Twitter и любой человек мог поговорить с ним. Однако, компании пришлось отключить такую возможность менее чем через 24 часа, потому что «добрые» интернет-пользователи быстро научили бота ругаться и читать отрывки из книги «Моя борьба» авторства Адольфа Гитлера.

Это отличный пример отравления данных, используемых для машинного обучения. Математическая модель, используемая для анализа компьютерных вирусов, обрабатывает, в среднем, миллион файлов в день, как нейтральных, так и вредных. Из-за того, что ландшафт угроз постоянно меняется, изменения модели передаются на продукты, установленные на стороне клиента в виде обновления антивирусных баз данных.

К сожалению, хакер может генерировать вредоносные файлы очень похожие безобидные и отправлять их в антивирусную лабораторию. Такие действия постепенно стирают грань между безобидными и вредными файлами – в результате, модель может давать ложную тревогу.

Обман искусственного интеллекта

Даже хорошо работающая математическая модель – которая использует правильные данные – может быть обманута, если кто-то знает, как она работает. Например, группа исследователей раскусила, как можно обмануть алгоритм распознавания лица с помощью специальных очков, которые минимально искажают изображение, полностью меняя результат.

Надевая очки с правками в специальном цвете, исследователи обманули алгоритм распознавания лиц, который принимал их за кого-то другого.

Систему можно легко обмануть, даже в повседневных ситуациях, которые не являются особенно сложным.

Первые три символа были восприняты как знаки ограничения скорости до 45 км/ч, а последний как знак СТОП.

Более того, чтобы обмануть математическая модель машинного обучения, изменения не должны быть значительными – достаточно минимальных изменений, незаметных для глаз человека.

Добавление небольшого шума на изображение панды слева «превращает» её в гиббона.

Кто виноват и как поступать

В 2016 году администрация Обамы получила отчет, в котором предупреждали от потенциальном применении дискриминации в решениях, принимаемых автоматически. Этот отчет также затрагивал вопрос создания алгоритмов, которые должны действовать в соответствии с принципами равных возможностей.

Легче сказать, чем сделать!

Во-первых, математические модели машинного обучения трудно тестировать и ремонтировать. Обычные программы мы оцениваем шаг за шагом, и мы знаем, как их тестировать, в случае машинного обучения всё зависит от размеров образца данных для обучения, который не может быть бесконечным.

Например, приложение Google Photo, используемое для распознавания и определения людей, определило чернокожих людей как горилл. Серьёзно! Как нетрудно предугадать, это вызвало скандал, а Google обещал исправить алгоритм. Однако, после трёх лет компании не удалось ничего улучшить, так что она просто запретила алгоритму определять какие-либо объекты на изображениях, как горилл, шимпанзе или обезьян.

Во-вторых, трудно понять и объяснить решения алгоритмов машинного обучения. Нейронная сеть размещает в себе весовые коэффициенты для получения правильных ответов, но как это происходит? И что вы можете сделать, чтобы изменить ответ?

Исследование 2015 года показало, что женщины значительно реже, чем мужчины, видят рекламу Google AdSense, предлагающую хорошо оплачиваемые должности. В свою очередь, предлагаемый компанией Amazon сервис доставки в тот же день часто не предоставляется в неблагополучных афро-американских районах. В обоих случаях представители компании не смогли объяснить решений, которые были приняты алгоритмами.

Так как в таких ситуациях трудно найти виновных, мы должны придумать новые правила и законы, которые должны выполнять роботы. В мае 2018 году в Германии впервые были приняты этические принципы, предназначенные для автономных автомобилей.

Среди них, в частности, следующие требования:

  • Безопасность людей имеет более высокий приоритет, чем безопасность животных или повреждение предметов.
  • Если событие является неизбежным, не может применяться дискриминации; не допускается использование факторов, дифференцирующих людей.

Но, что является для нас наиболее важным:

  • Системы автоматического управления транспортными средствами станут этическим императивом, если будут вызывать меньше аварий, чем живые водители.

Очевидно, что мы всё больше и больше будем полагаться на машинное обучение, так как оно управляет многими задачами гораздо лучше, чем люди. Поэтому важно помнить об этих правилах и возможных проблемах, пытаться предвидеть все возможные проблемы на этапе создания и помнить о мониторинге эффективности алгоритмов, когда что-то работает не так, как должно.

Ссылка на основную публикацию
Роутер s1010 mts прошивка
Блог о модемах, роутерах и gpon ont терминалах. В начале декабря 2018 года в нашем филиале Ростелеком появились двухдиапазонные WiFi-роутеры...
Разлиновка листа а4 в линейку для реферата
Качественный трафарет для листов формата A4. Предназначен для написания рефератов, курсовых, докладов, сценариев для детского сада и прочей документации. Данный...
Расширение viber для opera
Синхронизация с удаленным хранилищем является очень удобным инструментом, с помощью которого можно не только сохранить данные браузера от непредвиденных сбоев,...
Сейчас не удается отобразить рисунок powerpoint
Следите через RSS Подписаться на RSS Страницы Метки Архивы Задаем вопросы Комментарии на сайте Устранение неполадок мультимедиа в PowerPoint Проблема...
Adblock detector