Previous Entry Share Next Entry
St. Neuronet (9) Нейросети, нейросети, а я маленький такой!
И
metanymous wrote in metapractice
http://metapractice.livejournal.com/473309.html

Н. сетка (н. сетка (н. сетка (н. сетка (...))))

Может ли самолёт летать (как птичка!), может ли машина мыслить (как человек!).
http://ailev.livejournal.com/1204993.html
Хакатон deep.hack - всё получилось!
http://ailev.livejournal.com/1204972.html
Эти разные, разные "нейро"
http://ailev.livejournal.com/1204705.html
Мой доклад на Deep.hack
http://ailev.livejournal.com/1204460.html
Очередной пузырь, и очередная новая экономика
http://ailev.livejournal.com/1204103.html



  • 1

Самолёт в любом проявлении моделирует полёт птиц

Может ли самолёт летать (как птичка!),

Самолёт изначально в том или ином виде моделируют полёт птиц. И когда они не машут крыльями, и когда они машут:








И встречно. Птица, будь у нее поумнее мозги и соответствующие потребности, вполне могла бы моделировать полёт самолета.

.Проблемы эволюции самоорганизующейся электроники

может ли машина мыслить (как человек!).

(1) Информационная машина в любом её виде не может не моделировать человека. Ибо, вся интеллектуальная продукция человека есть тотальный антропоморфизм.

(2) Человек, взаимодействуя с машинами, непроизвольно их моделирует. Моделирует, даже простейшие механические устройства. При этом, он порождает феномен DHE:

Интерфейсы DHE
http://metapractice.livejournal.com/456189.html

(3) Исторически и содержательно, нейросеть есть модель нервной системы:

Иску́сственная нейро́нная се́ть (ИНС) — математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации и функционирования биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы.
https://ru.wikipedia.org/wiki/%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C

В силу указанного любые манипуляции с нейросетью являются продолжением явной формы моделирования работы нервной системы.

(4) Не так уж и тривиально сообразить, что человек в любых экспериментах/обучении нейросети буквально заставляет её ВТОРИЧНО моделировать самое себя/ответные реакции на самого себя/на свои действия. При некотором пороге перехода сложности нейросетей в новое качество известная точка сингулярности может/возникает совершенно неожиданно там где её не ждали и в формах, которых совершенно не ждали. Всегда стоит помнить, что нейросеть способна выкинуть неожиданный трюк, ибо правильное название НС есть ЧЯ - чёрный ящик, моделирующий разумные функции мозга:

Проблемы эволюции самоорганизующейся электроники
https://www.facebook.com/groups/nevronet/permalink/512228065610186/

Любая нейросеть есть самоорганизующаяся программная/электронная система, которая без всяких спец заданий моделирует непрозрачным путём разумную деятельность человека.

Обязаны разбираться в сюрпризах глобализации

Как только компьютерная программа демонстрирует поведение сложнее калькулятора, то ей сразу навешивают сравнение с именно человеческим разумом

Как только компьютерная программа демонстрирует поведение сложнее калькулятора, то ей сразу НЕПРОИЗВОЛЬНО навешивают сравнение с именно человеческим разумом.

-- и там тупик пустопорожних разговоров (про разум молотка, или экскаватора -- и по какому пути его неведомые инженеры должны были бы делать по мнению очередного не-инженера).

Ну, молотковые и экскаваторные инженеры + молотковые и экскаваторные работники это весьма узкая каста, к которой ни написавший разбираемый пост, ни читающие его в своём большинстве отношения не имеют.

Аналогично с нейросетями. И в том и в другом случае мы не более чем информированные/нет зеваки/обыватели. Однако, молотки инструменты двойного назначения, а экскаватором можно порвать коммуникации целого города. Посему, нам следует вживаться в допустимые нам вспомогательные роли моделистов, слабых с. инженеров. Ибо возникла очередная необходимость разобраться в очередном сюрпризе глобализации.


На что похожи эти "отдельные классы сложных задач".

С психологическим, социологическим, экономическим и прочим гуманитарным аппаратом к задачам современного слабого искусственного интеллекта (это термин, но я уже зарёкся его использовать, он как масла в огонь подливает каждым словом -- и "искуственным" и "интеллектом" и даже "слабым", мало ведь кто знает его изначальное значение. Но увы, нового слова для данной предметной области пока не придумали) подходить нельзя, вредно.

Задачи любой силы искусственного интеллекта не являются задачами замкнутой корпоративной среды. Это задачи, касающиеся повседневной жизни любого современного обывателя.

Следовательно, обыватель обязан разбираться в архисложных вопросах доступными средствами.

В прошедшем веке на роль такого средства выдвигалась эпистемология Бейтсона. Но, оказалась сложной для обывателя. Хотя Б. надеялся на противоположное.

Ну, а мы предлагаем на роль такого средства в помощь обывателю теорию и практику метапрактикового моделирования. Оно позволяет в каждой очередной задаче, ничего не зная, начинать с нуля с правильных вопросов.

Правильные вопросы приводят рано или поздно к правильным ответам.

Не случайно разрабатываемый гууглом вариант ИИ является диалоговым/вопросно-ответным.

Нет задачи смоделировать именно человеческий или животный или инопланетный разум, есть задача научить компьютер решать отдельные классы сложных задач.

Ну, да. Охотно не верим ни одному такому слову. Это как у производителей ГМО, они вовсе не собираются моделировать небелковые формы жизни для последующего в них переселения. Они только собираются накормить народы густой смесью пестицидов, инсектицидов и генетической химерной дряни, которую природа/бог не создавала на этом шарике.

Поэтому, мы мало-по-малу разберёмся на что похожи эти "отдельные классы сложных задач".

Зачем кормить нейросеть МОДЕЛЯМИ ОБУЧЕНИЯ ЧЕЛОВЕКОВ?

Даже поговорить о смысле жизни -- это просто сложная задача, никакого разума, никакого интеллекта не подразумевает.

Поговорить о смысле жизни в рамках сложной задачи возможно при наличии транперсонального/изотерического интеллекта.

Обсуждать можно лишь содержание высказываний, ничего более. Если машина слишком врёт, дообучить её (скормить какой-нибудь дополнительный текст, а хоть и от психологов).

Корпоративная идеология, наука и практика.

Обсуждать развитие нейросетей можно, а хоть бы и языком системной инженерии (си). Из построения конкретной си-инженерии будет чётко явствовать можно ли и для чего кормить нейросеть МОДЕЛЯМИ ОБУЧЕНИЯ ЧЕЛОВЕКОВ.

Но, знает ли кто-либо о нечеловеческих моделях обучения?

Пейдж и Хокинг нагоняют страх в "попсовых" статьях

Но никак не антропоморфизировать молотки и будильники и дальше нагонять страху, как это делают в попсовых статьях типа http://rusbase.vc/story/eto-zhenshina/ (там даже заголовок "Искусственный разум от Google заговорил. И это женщина").

По ссылке страху нагоняет совсем не авторитетный для наших здешних авторитетов директор и сооснователь Google Ларри Пейдж, который "недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков Google, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах".

Далее, страх продолжает нагонять другой, ну совсем не авторитет, мега известный физик. Стивен Хокинг – физик-теоретик, космолог, писатель.

Re: Пейдж и Хокинг нагоняют страх в "попсовых" статьях

"недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков Google, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах"

Каковые результаты не демонстрируют никакого значимого прогресса по сравнению с чат-ботами из 80-х.

Re: Пейдж и Хокинг нагоняют страх в "попсовых" статьях

А непонятно.

Старые чатботы действовали по шаблонам.

А теперь это каждый раз уникальное срабатыванеи сети. да, поди ещё с эффектом текущего самообучения.

Re: Пейдж и Хокинг нагоняют страх в "попсовых" статьях

Кажется, я спутал обсуждаемый эксперимент гугла с каким-то другим.

Вот этот отчёт: http://arxiv.org/pdf/1506.05869v2.pdf

Прогресс таки есть! Вполне нормальный вроде такой подход: типа ИИ = возможность адекватно поддерживать диалог. При этом база данных берётся из реальных диалогов людей в данном контексте (например, чат с сотрудниками тех. поддержки).

Re: Пейдж и Хокинг нагоняют страх в "попсовых" статьях

Ну, вот видишь.

Всякая сетка есть элемент ИИ

«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг.

В статью, к которой приложен официальный отчет гуугла, всё же попсовой не назовёшь.

Сильный ИИ - конец человеческой расы.

Слабый ИИ - слабый конец расы? Лёгкий п-ц?

Эта фраза прозвучала, когда разговор в интервью зашел о технологии, которая позволяет Хокингу говорить. Она основана на базовых формах ИИ и машинного обучения. Британская компания SwiftKey сыграла важную роль в разработке этой технологии: компьютер изучает ход мысли Хокинга и предлагает возможные варианты того, что он хочет сказать.

Кстати. Хокинг один из немногих, который есть более чем эксперт в ИИ на основе нейросетей:

--ученый точных наук высшего профиля
--многолетний пользователь нейросетей, решающих специальные сложные задачи
--задачи терминального уровня, ибо ии-н. сеть вытаскивает из него речь при наличии отсутствия физической возможности говорить

...и вот этот супер эксперт говорит - поберегитесь.

В интервью Би-би-си Хокинг признает, что те формы ИИ, которые удалось разработать на сегодняшний день, оказались полезными. Тем не менее, он утверждает, что создание технологии, которая может сравниться с человеком или превзойти его, не приведет ни к чему хорошему.

И мнение Хокинга однозначное. "Не приведёт ни к чему хорошему".

«Он (ИИ) станет самостоятельным и начнет развиваться и перестраиваться до бесконечности», — говорит Хокинг в интервью.

О чём и речь. ИИ сам по себе станет самостоятельным и начнёт рост по некоей прогрессии. И человек ему будет конкурент за ресурсы. Вот и вся страшилка.

Примерно через год после выхода в эфир того интервью Хокинг выступал на лондонской конференции Zeitgeist – 2015. Он повторил основные идеи, высказанные им в 2014 году, но по мере развития технологий он стал решительнее в своих высказываниях.

За год Х. увеличил нажим/категоричность своих высказываний.

По словам Хокинга, важной частью проблемы является то, какую ответственность несут люди, которые сейчас работают над созданием ИИ.

А никакой не несут. Вот у нас наглядный пример мистера Л. Он хоть и не разработчик, но вхож в сферы. И вот он из этих сфер гонит волну типа нет никакого ИИ, а есть особенные сложные задачи для/по развитию сеток.

Но, дело в том, что с стеками дело такое, что всякая сетка это элемент ИИ. Вот это вот - рабочий тезис.

Обучение-3 для нейросетей

Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.

Это тоже вам какие никакие, но авторитеты.

Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.

Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты.

"Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".

Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.

Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:

--сетка обучена человеком - обучение-0
--сетка самообучается - обучение-1
--одна обученная сетка учит другую - обучение-2
--сетка1 учит сетку2, которая учит сетку3 - обучение3

..проблемы могут появиться с обучения-3.

Алгоритмы мета-моделей и бикомпьютинга

Для придания фактической основы ИИ разработчики Google решили снабдить его данными из конкретной области знаний наряду с данными из более широкой и общей сферы. В первую категорию данных вошли переговоры службы техподдержки, во вторую – субтитры к фильмам.

Поди на это у них работают две отдельные сетки. Которые потом соединяются третьей.

«Модель (читай: ИИ) может найти решение технической проблемы через разговор. А из набора разрозненных данных субтитров к фильмам модель может почерпнуть простые формы связного построения речи и рассуждения. Как мы и ожидали, слабой стороной модели стало отсутствие последовательности».

Ну, на этом уровне им нужны последовательности типа алгоритмов вариантов мета-моделей и более развернутые алгоритмы типа модели точности и еще более свободные алгоритмы бикомпьютинга.

Это исследование было опубликовано 23 июня 2015 г., так что это — новая разработка в области ИИ, которая до сих пор пребывает в зачаточном состоянии. Тем не менее, эта модель является одной из самых развитых форм ИИ, представленных миру. И чтобы узнать, насколько им удалось продвинуться, разработчики Google загрузили компьютер и попробовали побеседовать с ИИ.

Ну, результат предсказуем. Тебе и себе вариант работы их ИИ существенно различается. А это критерий.

Человеческая "проективность"

Журналисты - зло.

Журналисты - безотносительное зло. Некоторые разработчики нейросетей есть другого типа явное зло, ибо не ведают что творят. Логика - пока ничего страшного не произошло, то его и нет, в отношении интенсивного развития нейросетей, является ложной.

Им покажешь молоток, а они ему приписывают злобу и ненависть, а также выражение лица рукоятки, с которым она направляет боёк не на гвоздь, а на палец.

Молоток - фигура. Фон:

--злобное выражение демонстратора
--резкие движения молотком
--а так же предпочтение к отвлеченным от сути разговора примерам, ибо молоток есть дикий/не годный для выражения моделей интеллекта интерфейс

...совокупность приведённых трёх свойств закономерно вызывает у наблюдателей оправданное ощущение прорывающейся злобы, ненависти и скрытых намерений.

С умными железками, напичканными софтом, всё то же самое. Покажешь журналисту, или психологу, или литератору и уж тем более философу (а иногда даже и программисту! тоже ведь философски настроенные натуры бывают!)

Что характерно, 90% програмистов являются субъектами с четко проявляющейся "философинкой". Любой это знает.

интересную программу -- ей тут же навесят человеческий разум, женскую сущность.

Назови стиральную машину ИМЕНЕМ СОБСТВЕННЫМ, постоянно к ней с именем обращайся, - в итоге получишь СИЛЬНЕЙШЕЕ ПРОЕКТИВНОЕ ЧУВСТВО ОЛИЦЕТВОРЕННОСТИ/одушевленности стиральной машины.

Это такой общий феномен. Игнорировать/отплёвываться от него в отношении процессов, официально называемых "нейросетями" является/выглядит ну очень очень странным. (Собеседник Т. Хэнкса по фильму "Изгой"):



  • 1
?

Log in

No account? Create an account