October 31st, 2018

И

Сводная тема (53) Дуальность Искусственного Интеллекта

https://metapractice.livejournal.com/587759.html

St. Neuronet (18) Искусственная Интуиция
https://metapractice.livejournal.com/573743.html
Подсознательное мышление (2) Интуитивное мышление
https://metapractice.livejournal.com/549972.html
Эпистемология моделирования (4) Моделирование ЧА vs ИИ
https://metapractice.livejournal.com/544138.html
Онтология высших ментальных процессов (2) Ментальные процессы ЧА vs ИИ
https://metapractice.livejournal.com/565864.html
Ментальные инструменты (2) Ментальные инструменты ЧА vs ИИ
https://metapractice.livejournal.com/567523.html
Подсознание (14) Подсознание ЧА vs ИИ
https://metapractice.livejournal.com/556866.html
Сознание (30) «Сознание» ИИ vs ЧА
https://metapractice.livejournal.com/568593.html


Как искусственный интеллект уперся лбом в стенку/ в искусственную интуицию
Искусственному интеллекту уже более 60 лет – он старше многих из нас. И все эти 60 лет накануне первого апреля в своих редакциях собирались журналисты, ставили на стол бутылку водки и придумывали очередную фантазию о чудо-роботах или ужасном апокалипсисе с участием ИИ. Потом первоапрельские шутки на полном серьезе подхватывали маркетологи и пиарщики – в итоге за 60 лет у человечества накопилось много забавных иллюзий и мифов об умных роботах и коварных скайнетах.
Когда-нибудь этот пузырь фантазий должен был столкнуться с объективной реальностью – и это произошло! В декабре 2017 года ряд уважаемых в отрасли ИИ экспертов (среди них руководитель Microsoft Research Кейт Кроуфорд и основатель Open Research в Google Мередит Уиттакер) выступили с настоятельной рекомендацией государственным учреждениям США воздерживаться от использования искусственного интеллекта в системах, связанных с принятием ответственных решений. Предупреждение объяснялось «неопределенно высокими рисками, недопустимыми в вопросах принятия ответственных решений» и касалось правительства, обороны, уголовного правосудия, здравоохранения, социального обеспечения, образования и подбора/оценки кадров.
Первыми еще в 2016 году подняли тревогу военные ученые из DARPA, управления по перспективным исследовательским проектам Пентагона. Они в частности заявили: «Мы не понимаем:

1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?»
Последний пункт с точки зрения будущего развития ИИ-отрасли действительно главный: такая исключительно важная для совершенствования специалиста-человека опция как «работа над ошибками» искусственному интеллекту недоступна.

Проблема называется «черный ящик искусственного интеллекта» — ее суть в том, что мотивация и логика принятия машиной того или иного решения непонятна даже самим разработчикам. И как решили эксперты, пока эта проблема не решена, системы ИИ становятся все опасней.Collapse )

Искусственная Интуиция artificial intuition