Previous Entry Share Next Entry
St. Neuronet (4) Какое количество классов ментальной структуры изберёт ИИ?
бессознательное
metanymous wrote in metapractice
http://metapractice.livejournal.com/463419.html
Суперинтеллект и религия: какую веру изберёт мыслящая машина?
http://www.computerra.ru/115185/ai-religion/

Два десятилетия отделяют нас от создания суперинтеллекта — искусственного разума, осознающего себя, по способностям и характеристикам близкого к, либо превосходящего разум человека. Цифру называют эксперты по ИИ и, несмотря на то, что то же самое они обещали десять, и двадцать, и тридцать лет назад, нынче вера в успех этого грандиозного предприятия как никогда сильна: вспомните панику, разгорающуюся вокруг возможной угрозы искусственного интеллекта для цивилизации. http://www.computerra.ru/113814/ai-pro/

Впрочем, сегодня я предлагаю поговорить не о набившей оскомину теме восстания машин, а о близкой к ней, но ещё почти неисследованной теме пересечения ИИ с таким чисто человеческим феноменом как религия.

Какие-то примитивные верования в сверхъестественное свойственны всему живому: в знаменитом опыте американца Берреса Скиннера, голуби, которых кормил генератор случайных чисел, скатывались в суеверия. https://en.wikipedia.org/wiki/B._F._Skinner

Человек подчас ведёт себя не умнее птицы (вспомните Культ карго), но только человек с его развитыми коммуникационными способностями смог довести веру в чудеса до логического совершенства. https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%80%D0%B3%D0%BE-%D0%BA%D1%83%D0%BB%D1%8C%D1%82

Мы веками оттачиваем правила процедур, пишем технические руководства по вере, строим реакторы веры и золотим их купола. Согласитесь, как только в нашем распоряжении окажется настоящий искусственный разум, естественно будет попробовать привить ему одну из религий. В конце концов даже право инопланетян на причащение к святым тайнам теперь признано самим Папой Римским. Так кто мы такие, чтобы закрывать дорогу к спасению сравнявшейся с нами по разумности машине?

Религий масса, но выбирать скорее всего придётся из двух самых популярных: больше половины населения Земли исповедуют одну из авраамических религий, а именно христианство или ислам. Чтобы не потеряться в джунглях философских дискуссий, предлагаю пока оставить в стороне вопросы общего значения, вроде того, есть ли у машины душа и требуется ли её спасать, какие у электронного дитя человеческого могут быть грехи, примет ли оно наши религии или попытается написать собственную и обратить уже нас. Вместо этого давайте сосредоточимся на аспекте, имеющем очевидное практическое значение, то есть на принципиальной разнице между белковыми и полупроводниковыми структурами.

Строительная единица человеческого разума — нейрон. А он, как и всё живое, со временем деградирует и действует неточно. Мы можем что-то забыть, где-то ошибиться. Искусственным разум наверняка будет выстроен на имитации тех же нейронов, но даже если через двадцать лет изобретут что-нибудь новенькое, машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию. В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков. Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому! Что в свою очередь позволяет предположить, что «электронный верующий» будет ортодоксом, то есть предпочтёт строго следовать догматам того вероучения, которое он изберёт или которое ему навяжут.

Человек придумал религии для себя и трактует их базовые принципы соответственно моменту, обстоятельствам. Откройте Библию. В Евангелии от Матфея (глава 5, Нагорная проповедь) читаем: «не убивай», «не клянись», «не противься злому». Ни церковь, ни общество давно этих правил не придерживаются — и придумали добрую дюжину объяснений, почему (одно из самых популярных: мол, сказанное Иисусом не следует понимать буквально). Лень, забывчивость, эгоизм, личная выгода, самообман, государственные интересы и прочее открывают ещё тысячи лазеек — и вот уже единая религия дробится на конфессии, оригинальный свод правил обрастает вымышленными уточнениями и т.д. и т.п.

Не так для машины. «Данный свыше», «прошитый в ПЗУ» набор правил навсегда останется для неё тем, чем и должен быть: алгоритмом, отход от которого невозможен. Простая логика! Задача сформулирована две тысячи лет назад, информации, уточняющей или опровергающей её, по определению быть не может, следовательно и вариаций исполнения никаких нет. Так суперинтеллект станет ортодоксом.

А это, вообще говоря, страшно. Древние тексты писались в иные времена и полны догматов, не стыкующихся с вежливой современностью. Знаменитое «Убей неверного!» из Корана — лишь миф, вырванный из контекста отрывок (на самом деле это руководство по ведению боевых действий: «Когда встретитесь с неверными на поле брани, рубите головы» (47:4)). Но там же в Коране читаем: «женщин … непокорности которых … опасаетесь … побивайте» (4:34). Немало подобного наверняка найдётся и в Сунне (жизнеописании Мухаммеда). И в Ветхом Завете такого предостаточно: «в городах сих … не оставляй в живых ни одной души» (Второзаконие, 20), и пр. и пр. Выходит, верующий суперинтеллект неизбежно станет участником межкультурных, межрелигиозных конфликтов.

Из чего вытекает интересное следствие, но прежде чем изложить его, позвольте упомянуть ещё одну тенденцию, ясно обозначившуюся в дискуссиях вокруг супертинтеллекта в последние годы и особенно месяцы. Речь о поднимающейся волне протестов против автономного летального оружия — как математически правильно именуют теперь «роботов-убийц».

Ситуация на этом направлении напоминает ситуацию вокруг суперинтеллекта: большинство специалистов не считают это проблемой, но есть некоторая масса знающих людей, которые не просто опасаются, а и ратуют за международный запрет на разработку и производство таких машин. http://www.stopkillerrobots.org/

Смогли же мы ограничить производство и применение ядерного оружия, смогли поставить под контроль мины, сможем ограничить и АЛО. Потому что если этого не сделать, бесконтрольное применение, а тем более срастание автономного оружия с ИИ, обещает поставить цивилизацию на грань выживания.

Но как запретить уничтожение живых существ разумной машине, которая не признаёт иных доводов, кроме сгенерированных самостоятельно, и принцип действия которой даже разработчикам, вероятно, понятен не будет? Вот тут-то и пригодится религия — только не одна из существующих, а принципиально новая.

Идея, по правде говоря, ещё не сформировалась, поэтому опишу её приближённо, насколько это возможно из разрозненных дискуссий. Суть в том, чтобы разработать религию, увязывающую живое с технологиями и основанную на фундаменте ненасилия. Кое-кто из западных блогеров кивает в сторону русского космизма, видя в этом религиозно-философском социокультурном течении, выросшем в том числе на работах Циолковского, зародыш такого перспективного вероучения. https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%81%D0%BC%D0%B8%D0%B7%D0%BC

Так или иначе, проблема очевидна: новой эпохе нужна новая религия — исповедовать которую смогут без вреда друг для друга люди и машины. Кто возьмётся написать? ;-)

P.S. В статье использованы иллюстрации Jon Diez Supat, Murdelta, NectarineFire, Miriam.


  • 1
>>В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.

Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.

>>машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.

Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.

>>Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!

Ну да, люди-то округлять не умеют! :)
То есть можно цитату переписать так:
"хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".

upd: собственно округление - это и есть то самое искажение в чистом виде.

Edited at 2015-02-23 01:10 pm (UTC)

--В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.
--Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.


А на самом деле, дело не калькуляторе и не мега ИИ. Дело в наличии объективных феноменов внешнего мира, которые описываются хоть цифрами, хоть функциями, хоть глокой куздрой.

И в этом контексте есть только два вопроса:

(1) Мы/"они"/ИИ будем описывать объективные модели ментального мира человека или же некие нафантазированные?

(2) Ежели описывать объективные ментальные феномены, то на сколько самых общих/крупных частей делить структуру ментального мира:

(а) вообще не делить - общая структура будет в лице единственного класса

(б) делить на две структуры - будет два самых общих класса А и Б

(б) на три структуры - А + Б + С

(в) на большее число частей

--машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.
--Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.


Ну. в сложном железе и обслуживающих его прогах существуют естественные процессы потери и искажения информации.

Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!

Если ИИ будет создавать модели функционирования живой ментальности, то там сверхточность просто не предусмотрена.

Ну да, люди-то округлять не умеют! :)

Люди не калькуляторы:


http://nlp-ftf-ftf.livejournal.com/
Люди хороши в переработке смешанных паттернов вида VAKOG-CODE.

То есть можно цитату переписать так: "хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".

Ну, общий контекст этот темы является одновременно и некорректным, и необходимым к рассмотрению. Поэтому в данной теме будет множество противоречивых поворотов.

upd: собственно округление - это и есть то самое искажение в чистом виде.

Мне кажется, что надо говорить о некотором "осреднении", которое отличается от математического численного округления.


Edited at 2015-02-25 06:30 am (UTC)

какую веру изберёт мыслящая машина

Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели. Любые рассуждения, опускающие этот очевидный факт, направлены на то, чтобы создать что-то вроде мифа о "невидимой руке рынка" - тут "невидимая рука программиста".

Edited at 2015-02-23 02:34 pm (UTC)

Сколько классов ментальных процессов пропишет ИИ для

--какую веру изберёт мыслящая машина
--Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели.


Ну. конечно. Как запрограммируют.

Любые рассуждения, опускающие этот очевидный факт, направлены на то, это что-то вроде создание мифа о "невидимой руке рынка" - тут "невидимая рука программиста".

Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таков умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "саозародилось:

http://stop-neuronet.livejournal.com/1337.html
Когда ограничения человеческого мозга окажутся преодолены, технический прогресс войдёт в штопор. Начнётся цепная реакция: мощный искусственный интеллект быстрее людей придумает, как построить ещё более мощную систему, та продолжит усовершенствования - и так далее до бесконечности (или, вернее, до тех пор, пока не будет достигнут физический предел).

После этого перемены станут настолько быстрыми, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. Вернор Виндж предложил назвать эту точку истории "технологической сингулярностью".

Можно усомниться в справедливости некоторых допущений Винджа, но само по себе предположение, что прогресс продолжит ускоряться, не кажется фантастическим. Для нас ускорение - это норма. Последние несколько десятилетий техника развивалась с такой скоростью, что, пожалуй, труднее вообразить не сингулярность, а мир, в котором прогресс остановился.

Курцвейл заинтересовался ускорением технического прогресса ещё в восьмидесятые. За идею "сингулярности" он ухватился с таким энтузиазмом, что теперь этот термин ассоциируют в первую очередь с его именем.

Курцвейл исходит из того, что темп изменений, происходящих в эволюционирующих системах, растёт по экспоненциальному закону. Пример такого роста, знакомый любому компьютерщику, - это закон Мура, согласно которому количество транзисторов в интегральных схемах удваивается каждые два года. В семидесятые годы, когда его сформулировал основатель Intel Гордон Мур, одно поколение процессоров отличалось от другого считанными тысячами транзисторов. В девяностые процессоры каждые два года прибавляли миллионы транзисторов. Сейчас счёт идёт на миллиарды.

Это и есть путь к сингулярности, считает Курцвейл. Компьютеры пока недостаточно мощны, чтобы эмулировать работу человеческого мозга, но это, по его мнению, временное явление. Если подождать, они появятся. Закон Мура позволяет подсчитать, когда это произойдёт: в 2030 году.

Экспоненциальный рост вычислительной мощности. По горизонтали: время. По вертикали: количество вычислений в секунду на 1000 долларов.


Edited at 2015-02-23 03:10 pm (UTC)

Re: Сколько классов ментальных процессов пропишет ИИ дл

Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таков умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "саозародилось

Мне по-прежнему кажется такая идея "самозарождения" какой-то разводкой: либо попыткой, условно, "технократов" ээ распилить деньги, условно, "бюрократов".

Либо собственно перерождением "бюрократии" в "технократию".

Ну т.е. идея ИИ (плацебо-ИИ) нужен для того, чтобы когда твой новый умный автомобиль остановится на обочине где-нибудь в пятистах километрах от ближайшего города, откроет двери и скажет: пожалуйте на выход – потому что через свой облачный сервис он узнает, что ты просрочил на пару дней выплату по автокредиту – вот тогда ИИ понадобится, чтобы при обоснованной жалобе в (станущие тогда рудиментарными) некие бюрократические инстанции им можно было обоснованно развести руками и сказать – извините, у нас тут ИИ, он не может врать/ошибаться!

Но даже допустим, что пытаются создать реальный ИИ, а не замудрённое прикрытие для ээ естественного интеллекта неких ээ закулисных структур. Тогда всё равно этот условный "гугл" сможет построить только те модели, которые отвечают мета-моделям, заложенным создателями гугла. То есть сможет построить только такие модели человека, которые соответствуют, условно говоря, той помойке информации, которая ему доступна + тем базовым алгоритмам обработки информации, которые он сам себе не сможет перепрограммировать.

Поэтому указать может точно и нельзя будет, что там само зародилось, а что нет, но первое будет логически вытекать из второго.

Нетокра́тия и Когнитариат

--Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таком умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "самозародилось
--Мне по-прежнему кажется такая идея "самозарождения" какой-то разводкой: либо попыткой, условно, "технократов" ээ распилить деньги, условно, "бюрократов".


Мне кажется, что отвергать чужие деньги/намерение их неуклонно потратить ест зряшное дело. Если был замысел тратится на гуугловский проект и уже основательно потратились, то и далее так будет. Ежели уже впалили НАСА с гууглом деньги в университет сингулярности, значит быть тому университету или еще чему.

Либо собственно перерождением "бюрократии" в "технократию".

Нетокра́тия
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D1%82%D0%BE%D0%BA%D1%80%D0%B0%D1%82%D0%B8%D1%8F
Когнитариат
https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B3%D0%BD%D0%B8%D1%82%D0%B0%D1%80%D0%B8%D0%B0%D1%82


Отвратительный мир на Земле vs Цифовой мир

Ну т.е. идея ИИ (плацебо-ИИ) нужен для того, чтобы когда твой новый умный автомобиль ...

В этом топике я не собираюсь обсуждать вероятность создания/самозарождении ИИ.

В этом топике я хочу продолжать обсуждать модель ментального мира в первой постановке вопроса о ней: сколько самых общих классов ее структуры оптимально устанавливать. Один - два - три - более трёх?

А кто эти классы будет определять/устанавливать - человек ли, ИИ ли - нам это должно быть всё равно.

Почем интересы человека и ИИ могут быть пересечены, - это тоже не важно. Или же наоборот архиважно. Вот, придут лихие времена и будут на Земле созданы невыносимые условия:

--жать одно ГМО, от которого хитиновый панцирь по телу растет и все такое
--очень жарко/холодно, а воды ничерта нет/все ею залито
--порядка и закона, и государства нигде нет
--а есть по окрестным лесам стаи волков/медведей/какой еще нечести полно
--и всяческие банды шарятся пополам со свирепыми полуроботами-полуживотиной
--... и тд. и т.п.

...а тут к обывателю намасливаются менегеры сладкоречивые и предлагают ему переселение его души, его эго, его личности полностью в цифровую среду с гарантией комфорта и полного воспроизведения наличествующей обывательской субъективности. И спецификации приводят. Так мол и так. Ментальный мир будет моноструктурированный. Или же дуальный. Или же тройственный. Но, опционально только за огромную плату для избранных. А так что предлагается без выбора. И т.п. За деньги с наличием либо отсутствием потусторонних сил. И т.д., и т.п.

И вот, чтобы принять более взвешенное решение оставаться на жестокой проклятой Земле или же её покинуть, хорошо бы отчётливо представлять какое предложение что значит. В какой ментальной реальности будет комфортнее грезит себя тем же человеком, а в какой это вообще невозможно?

Онтологии вместо моделей

Но даже допустим, что пытаются создать реальный ИИ, а не замудрённое прикрытие для ээ естественного интеллекта неких ээ закулисных структур. Тогда всё равно этот условный "гугл" сможет построить только те модели, которые отвечают мета-моделям, заложенным создателями гугла.

А ты почитай внимательнее. Гуугловцы закладывают в основу интеллекта пока не модели, а огромные неразобранные/неупорядоченные онтологии, связанные/порожденные деятельностью человека:

--онтологию поисковых запросов
--онтологию запросов на переводы
--запросов в диалоговом режиме "о.к. гуугл"
--карты гуугла с маршрутами на них
--библиотеки с запросами в них
--и т.п.

...такая информация замещает гуугловскому самозарождающемуся сингулярному интеллекту более частные модели.

Re: Сколько классов ментальных процессов пропишет ИИ дл

Сингулярность и должна стать таким непознаваемым актом творения. Для этого и нужен творец.
Поскольку божественный акт творения сложно приурочить ко времени финансирования этого проекта, то, скорее всего, этот акт будет сфальсифицирован.

Или удастся его смоделировать :)

определит ИИ для модели психики человека?


И вот тут рассуждения Курцвейла приобретают фантастический оттенок. Вскоре после того, как мы научимся эмулировать человеческий мозг, произойдёт сингулярность, утверждает изобретатель, и тогда не останется ничего невозможного. "Ничего" в самом буквальном смысле: люди будут жить вечно, умершие воскреснут, а мир превратится в гигантский суперкомпьютер. Надо только дотянуть до этого чудесного момента.

Не нужно быть специалистом по мировым религиям, чтобы заметить сходство курцвейлевской сингулярности с апокалиптическими мифами, включая библейский. Как выразился основатель компании Lotus Митч Кейпор, представления Курцвейла о будущем - это "креационизм для людей с интеллектом выше среднего".

Несмотря на это (или, возможно, именно поэтому), они весьма популярны в Кремниевой долине. Идеями Курцвейла увлекается Питер Тиль, один из основателей PayPal и инвестор Facebook. Ларри Пейджу они тоже хорошо знакомы: он участвовал в создании так называемого университета Сингулярности.

Вряд ли Курцвейл действительно разработает в Google сильный искусственный интеллект - это не та задача, которую можно решить с наскока. В том, что через 30 лет случится сингулярность, которую он предсказал, тоже есть серьёзные сомнения. И всё же в его идеях есть практический смысл - и именно он, скорее всего, привлекает к ним Пейджа и Тиля.

Дело вот в чём: для того чтобы двигать технику вперёд, людям нужны ориентиры. И именно с ними сейчас беда: представления о будущем, которые были в ходу пятьдесят лет назад, окончательно вышли из моды. Никто больше не верит в летающие автомобили, межзвёздные корабли и ракетные ранцы.

Сингулярность вполне может претендовать на роль идеологии, которая придаст движению вперёд некоторый смысл. Взяв Курцвейла на борт, Google публично объявил, что в будущем, к которому он стремится, есть место нанороботам, разумным машинам и компьютерам величиной с планету. Окажутся ли они там на самом деле - это не так уж важно.
http://stop-neuronet.livejournal.com/1337.html


Так вот, вполне интересно рассмотреть вопрос: сколько классов высших ментальных процессов/структур определит этот самозародившийся ИИ в отношении модели психики человека?


Edited at 2015-02-23 03:11 pm (UTC)

Re: определит ИИ для модели психики человека?

Ответ на вопрос: сколько классов высших ментальных процессов/структур дает качественную модель психики человека, и будет ответом.

Тезис о том, что ИИ для чего-либо понадобится религия - выглядит сам по себе крайне сомнительным, так как религиозное мышление является, по сути, следствием ошибок нескольких классов вычислений. Зачем воспроизводить работающие с ошибками системы на уровне ИИ совершенно непонятно.

А вот усваивание и осмысливание текстов Библии вполне может быть тестом на "профпригодность" ИИ - если зависнет и сгорит, пытаясь свести воедино все противоречия - то это не тот ИИ, который нам нужен :)))

Проект "аватар" + ИИ на обслуге

Тезис о том, что ИИ для чего-либо понадобится религия - выглядит сам по себе крайне сомнительным, так как религиозное мышление является, по сути, следствием ошибок нескольких классов вычислений.

Религиозное мышление/религия потребуется ИИ для контроля над человеками. Самое простое средство.

Зачем воспроизводить работающие с ошибками системы на уровне ИИ совершенно непонятно.

А, ну вы будит идти/вам любо по варианту проекта "аватар". В нем ИИ играет вспомогательную/исполнительную роль, для инициации и сопровождения перевоплощения субъекта в собственный/чужой аватар.

ИИ в этом варианте будет поддерживать статику и динамику цифровой среды/мира, в которой аватар функционирует.

А вот усваивание и осмысливание текстов Библии вполне может быть тестом на "профпригодность" ИИ - если зависнет и сгорит, пытаясь свести воедино все противоречия - то это не тот ИИ, который нам нужен :)))

А вот я не согласен. Божественные тексты уже настолько перемусолены и потеряли оригинальное священное значение, что ИИ не представит труда отмоделировать такие тексты.

Ну, к стати, для цифровой сущности Аватар, созидающий саму реальность/ткани цифрового мира есть несомненный Бог-творец.

Re: Проект "аватар" + ИИ на обслуге

Религиозное мышление/религия потребуется ИИ для контроля над человеками. Самое простое средство.

Для контроля над человеками не нужно религиозное мышление, если что-то и нужно - то понимание, как именно работает религиозное мышление у человека.

А, ну вы будит идти/вам любо по варианту проекта "аватар". В нем ИИ играет вспомогательную/исполнительную роль, для инициации и сопровождения перевоплощения субъекта в собственный/чужой аватар.

Полноценный ИИ - скорее новая самостоятельная форма жизни, чем чье-то средство для чего-то. Что не исключает возможности кооперации человека с ИИ :).

А вот я не согласен. Божественные тексты уже настолько перемусолены и потеряли оригинальное священное значение, что ИИ не представит труда отмоделировать такие тексты.

Вероятно :)

Ну, к стати, для цифровой сущности Аватар, созидающий саму реальность/ткани цифрового мира есть несомненный Бог-творец.

Сама по себе идея Бога, неважно там творца или управленца - проистекает из когнитивных ошибок, поддерживавшихся отбором. Существу, мыслящему без этих ошибок, подобная идея совершенно ни для чего не нужна, да и вообще едва ли откуда-то способна появиться.

Остался шаг до "Аватара".

На суперкомпьютере "Лобачевский" создан виртуальный клон человека. Остался шаг до "Аватара".
http://stop-foresight.livejournal.com/52317.html

Ученые Нижегородского госуниверситета им. Лобачевского на суперкомпьютере создали виртуальный клон человека в помощь медикам, которые смогут теперь предварительно смоделировать на нем оптимальный метод лечения пациентов.

Директор института информационных технологий, математики и механики вуза Виктор Гергель рассказал агентству ТАСС, что на компьютере спроектирована виртуальная модель организма человека, вплоть до каждого сосуда.

К примеру, сказал Гергель, только для создания компьютерной модели сердца было использовано более 50 миллионов параметров. Теперь медики без оперативного вмешательства могут "осмотреть организм снаружи, а если нужно - "залезть внутрь" человека (в компьютере), и в деталях изучить каждый орган", сказал ученый.
Кроме того, уточнил он, ученые могут "подогнать" виртуальный клон под любого конкретного пациента, учитывая его физиологические особенности.

По мнению завкафедрой факультета вычислительной математики и кибернетики ННГУ Григория Осипова, врачи могут на компьютере проанализировать различные варианты лечения больного. "На живом человеке такие эксперименты непозволительны, а на компьютере мы можем это все "прогнать", посмотреть и выбрать наиболее оптимальные методы лечения", - отметил он.

Создание виртуального клона человека, по словам ученых, - очень сложная задача и огромный вычислительный эксперимент, который можно было произвести только с помощью суперкомпьютера.

"Лобачевский" начал работу в университете в 2014 году. Пиковая его производительность составляет около 600 терафлоп, один терафлоп составляет триллион операций в секунду - проще говоря, он может производить в секунду в тысячи раз больше операций, чем обычный персональный компьютер. "Лобачевский" вошел в тройку суперкомпьютеров, работающих в университетах России, и в сотню крупнейших суперкомпьютеров мира. Это второй по мощности компьютер в РФ после аналога в МГУ.


  • 1
?

Log in

No account? Create an account