?

Log in

No account? Create an account

Entries by category: технологии

Сводная тема (53) Дуальность Искусственного Интеллекта
И
metanymous
https://metapractice.livejournal.com/587759.html

St. Neuronet (18) Искусственная Интуиция
https://metapractice.livejournal.com/573743.html
Подсознательное мышление (2) Интуитивное мышление
https://metapractice.livejournal.com/549972.html
Эпистемология моделирования (4) Моделирование ЧА vs ИИ
https://metapractice.livejournal.com/544138.html
Онтология высших ментальных процессов (2) Ментальные процессы ЧА vs ИИ
https://metapractice.livejournal.com/565864.html
Ментальные инструменты (2) Ментальные инструменты ЧА vs ИИ
https://metapractice.livejournal.com/567523.html
Подсознание (14) Подсознание ЧА vs ИИ
https://metapractice.livejournal.com/556866.html
Сознание (30) «Сознание» ИИ vs ЧА
https://metapractice.livejournal.com/568593.html


Как искусственный интеллект уперся лбом в стенку/ в искусственную интуицию
Искусственному интеллекту уже более 60 лет – он старше многих из нас. И все эти 60 лет накануне первого апреля в своих редакциях собирались журналисты, ставили на стол бутылку водки и придумывали очередную фантазию о чудо-роботах или ужасном апокалипсисе с участием ИИ. Потом первоапрельские шутки на полном серьезе подхватывали маркетологи и пиарщики – в итоге за 60 лет у человечества накопилось много забавных иллюзий и мифов об умных роботах и коварных скайнетах.
Когда-нибудь этот пузырь фантазий должен был столкнуться с объективной реальностью – и это произошло! В декабре 2017 года ряд уважаемых в отрасли ИИ экспертов (среди них руководитель Microsoft Research Кейт Кроуфорд и основатель Open Research в Google Мередит Уиттакер) выступили с настоятельной рекомендацией государственным учреждениям США воздерживаться от использования искусственного интеллекта в системах, связанных с принятием ответственных решений. Предупреждение объяснялось «неопределенно высокими рисками, недопустимыми в вопросах принятия ответственных решений» и касалось правительства, обороны, уголовного правосудия, здравоохранения, социального обеспечения, образования и подбора/оценки кадров.
Первыми еще в 2016 году подняли тревогу военные ученые из DARPA, управления по перспективным исследовательским проектам Пентагона. Они в частности заявили: «Мы не понимаем:

1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?»
Последний пункт с точки зрения будущего развития ИИ-отрасли действительно главный: такая исключительно важная для совершенствования специалиста-человека опция как «работа над ошибками» искусственному интеллекту недоступна.

Проблема называется «черный ящик искусственного интеллекта» — ее суть в том, что мотивация и логика принятия машиной того или иного решения непонятна даже самим разработчикам. И как решили эксперты, пока эта проблема не решена, системы ИИ становятся все опасней.Read more...Collapse )

Искусственная Интуиция artificial intuition

Ценностные Иерархии (61) Два мышления – два способа принятия решения
поиск
meta_eugzol
https://metapractice.livejournal.com/578937.html

Анализ 50 языков подтвердил существование двух механизмов мышления
Исследователи из Китайского университета связи сопоставили наблюдение лингвиста 80-летней давности с механизмом работы человеческого сознания и обнаружили фундаментальную закономерность в выборе слов, которая проявляется как минимум в 50 различных языках.
В 1935 году американский лингвист Джордж Ципф заинтересовался пропорцией часто встречающихся в речи слов с менее распространенными. Он распределил слова по популярности и вывел странную закономерность: слова первого разряда используются ровно вдвое чаще, чем второго, и втрое чаще, чем третьего.
Read more...Collapse )

Два мышления - два решения

Righting the Modeling Conveyor Belt (14) Подмена модел. ЧА «аналитикой» порождает парадокс Моравека
И
metanymous
https://metapractice.livejournal.com/562489.html

Парадокс Моравека
Парадокс Моравека - это открытие исследователей искусственного интеллекта и робототехники, что, вопреки традиционным предположениям, высокоуровневые рассуждения требуют очень мало вычислений, а низкоуровневые сенсомоторные навыки требуют огромных вычислительных ресурсов. Этот принцип был сформулирован Хансом Моравеком, Родни Бруксом, Марвином Минским и другими в 1980-х годах. Как пишет Моравек, «сравнительно легко заставить компьютеры демонстрировать производительность взрослого уровня в тестах интеллекта или играть в шашки, и трудно или невозможно дать им навыки однолетного, когда дело доходит до восприятия и мобильности». [1]
Подобным образом, Марвин Мински подчеркнул, что самыми трудными человеческими навыками для обратного проектирования являются бессознательные. «В общем, мы меньше всего понимаем, что делают наши умы лучше всего», - писал он, и добавил: «Мы более осведомлены о простых процессах, которые не работают, чем о сложных, которые работают безупречно». [2]
https://metapractice.livejournal.com/573292.html?thread=14495596#t14495596


Парадокс Моравека

Сводная тема (47) ЦИ есть ЧА-феномен принятия решения
И
metanymous
https://metapractice.livejournal.com/571749.html

Ценностные Иерархии (57) Любая иерархия ЧА есть ценностная онтология принятия решения
https://metapractice.livejournal.com/572180.html


Три дилеммы ИИ. Вот - три дилеммы. Решив их, вы узнаете, как вы на самом деле относитесь к приходу искусственного интеллекта в историю человечества.
https://golos.io/ru--chelovek/@akolonin/tri-dilemmy-ii


Феномены/паттерны ЧА (8) ЦИ пример системного ЧА-феномена
http://metapractice.livejournal.com/532666.html

St. Neuronet (16) Решения: логическое р. автомата vs феноменологическое человеческое решение
https://metapractice.livejournal.com/545664.html


ЦИ приняте решений


Сводная тема (36) Либеральные права сознания. Выбор носителя.
П
metanymous
http://metapractice.livejournal.com/531417.html

Сознание (26) Само себе принадлежащее сознание
http://metapractice.livejournal.com/529088.html
St. Neuronet (14) Квоты на необузданный прогресс
http://metapractice.livejournal.com/525104.html
Обучение (6) Глобальный «перегрев» обучения
http://metapractice.livejournal.com/523133.html
Модель субличности (15) Сознание есть система субличностей/сознаний
http://metapractice.livejournal.com/521079.html
Карго-моделирование (2) Эмерджентность нейро сетевых свойств
http://metapractice.livejournal.com/501656.html


Как мозг ограничивает нашу свободу: объясняет нейроэкономист Василий Ключарев
https://daily.afisha.ru/brain/3085-kak-mozg-ogranichivaet-nashu-svobodu-obyasnyaet-neyroekonomist-vasiliy-klyucharev/
МАНИФЕСТ НЕЙРОНЕТА Единство технологической эволюции и эволюции сознания
http://globalneuroweb.org/ru/manifesto
Давид Ян: Искусственный интеллект будет совершенствовать сам себя
http://sukhov.com/blog/david-yan-iskusstvennyiy-intellekt-budet-sovershenstvovat-sam-sebya/
Homo ex machina: перспективы перемещения сознания на другой носитель
https://geektimes.ru/company/mailru/blog/280728/




Mobilis in mobile (25) "Позы силы" работающая модель. Запуск модели требует технологии.
И
metanymous
http://metapractice.livejournal.com/512326.html

Об Эми Кадди и «позы силы»
Дорогие друзья, приношу извинения. Я несколько раз в своих выступлениях упоминал Эми Кадди (Amy Cuddy) и ее работы, связанные с «позами силы», называя их примерами того, что поза иногда может работать странным образом. Так вот, оказывается, эти эксперименты Кадди как бы не очень воспроизводятся. Анализ других исследований на эту тему показывает эффект, близкий к нулевому. Такие дела. Полезно помнить, что ни профессорская должность в Гарварде, ни прекрасное выступление на TED (ирония!) — не гарантия того, что человека говорит, что-то заслуживающее безусловного доверия. https://en.wikipedia.org/wiki/Amy_Cuddy#Power_posing
http://kapterev.livejournal.com/963205.html



https://www.ted.com/talks/amy_cuddy_your_body_language_shapes_who_you_are/transcript?language=ru

Отдельная дискуссия почему "поза", являющая нечто статическое, попала в тему "Mobilis in mobile" последует.
Поза https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B7%D0%B0

Магия появления моделиста (35) Логико-лингвистическое моделирование
исполнитель (пианино)
eugzol
http://metapractice.livejournal.com/390568.html

По ходу своей научной деятельности наткнулся на автора, работы которого может быть интересным рассмотреть в наших «психологических» контекстах. Продолжаем обзор научных материалов, которые могли бы быть полезны в контексте доработки метамодели (или разработки параллельных систем вопросов, основанных на параллельных трасформационной грамматике Хомского теориях), начатый здесь:

Магия появления моделиста (29) актанты Апресяна
http://metapractice.livejournal.com/328407.html

Магия появления моделиста (27) интермедия: научный бекграунд
http://metapractice.livejournal.com/324322.html

В этом проходе взглянем на теорию «логически-лингвистического моделирования», разработанную Д.А. Поспеловым.
Биографическая справка из ВикипедииCollapse )
А вот что о нём пишут бизнес-консалтеры с уклоном в научный подход:

Работа Дмитрия Александровича Поспелова «Логико лингвистические модели в системах управления» [Поспелов, 1981] произвела «тихую революцию» в умах кибернетического научного сообщества в начале 80-ых. Для неофитов же это было то «Слово», которое вызвало ментальный резонанс, и привлекший к эти исследованиям новых молодых исследователей, среди них был и автор этой статьи.

Принципиальная новизна логико-лингвистического подхода была в ее гениальной простоте. Для моделирования кибернетических систем предлагался не очередной математический монстр, понятный лишь автору и его ближайшему окружению, а набор вполне прозрачных нотаций для описания объектов системы управления и связей между ними. Впервые отчетливо прозвучала мысль, что существуют задачи, где строгая математика бессильна, но где логика, обогащенная лингвистическими моделями, может дать результативное и ясное описание.

http://bigc.ru/publications/bigspb/km/logyc_ling_upr.php


В комментариях приведу некоторые цитаты по книге Поспелова «Ситуационное управление. Теория и практика» (1986). В книге описывается система из десятка языковых форм и способ их формального (символьного) представления. Автор явно ухватывает такие интересные языковые феномены, как модальности, номинализации, предикаты сравнения и т.д. И дополняет их оригинальными/уникальными разработками.

В начальных главах автор постулирует неизбежно присущую всем подобным моделям не точность, приблизительность, субъективность/оценочность. Но выдвигает это как положительное их свойство, поскольку управление системами, включающими людей в качестве составных элементов, только такими моделями и может быть описано. При этом в конечном итоге он предлагает методику управления, позволяющую из набора подобных не точных посылок/квантов делать достаточно точные для принятия верных решений выводы. Короче, решает всё ту же задачу уточнения человеческих моделей и конкретизации описаний. Только со стороны математической нотации и исследования организаций.


Отзеркаливание (13) отзеркаливание это еще и сочувствие
И
metanymous
http://metapractice.livejournal.com/299993.html

Как миловидные картонные роботы подчиняют себе людей
http://blogs.computerra.ru/22983


Tweenbots from kacie kinzer on Vimeo.


Моделирование Ценностных Иерархий (ЦИ) (18) умный гаджет должен знать ЦИ
PUSH
metanymous
http://community.livejournal.com/metapractice/232853.html

Intel превратит гаджеты и мини-компьютеры в «умных» помощников
Другой пример — «умный» пульт дистанционного управления телевизором. Благодаря встроенным сенсорам такое устройство может определить, кто взял его в руки, и порекомендовать зрителю персонализированный набор программ в соответствии с его интересами.
http://science.compulenta.ru/562760/





He can always tell the truth (9) три закона роботехники
brain
metanymous
http://community.livejournal.com/metapractice/253080.html

«Мы разработали алгоритмы, которые позволяют роботу вводить в заблуждение человека или машину, обладающую искусственным интеллектом, а также научили его выбирать лучшую стратегию в разных обстоятельствах», — уточняет руководитель научной группы Рональд Аркин.
http://science.compulenta.ru/561686/


1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
http://ru.wikipedia.org/wiki/Три_закона_роботехники