Previous Entry Share Next Entry
Место для тренировки Декодера5
wake_ wrote in metapractice
Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.
Про саму модель Декодера подробнее здесь (http://community.livejournal.com/metapractice/34050.html)
Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо.
Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).


Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.
А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.
И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать
декодером? Накидаем базовый список вариантов последовательностей декодера:

- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)
- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)
- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)

Это совсем грубая классификация, наверняка неполная и несбалансированная. Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.

Место для тренировки Декодера4
http://community.livejournal.com/metapractice/34050.html

  • 1
хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?

мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами, и т.п.
примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательны

если можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)

хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?
Они ДОЛЖНЫ быть на разных логических уровнях для создания силы их воздействия!!!

мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами,

Если в твоем примере будет примерно так:

(1) Улицы, переулки, закоулки
1.1 Сходящееся на виде окон описание улицы в городе1
1.2 Сходящееся на виде окон описание переулка в городе2
[1.3 Сходящееся на виде окон описание закоулка в городе3]

(2)Площади, площадки, пятачки
2.1 Сходящееся на виде кадок с цветами описание площади в городеN
2.2 Сходящееся на виде кадок с цветами описание угла площади в городеN+1

[(3) ...]

При этом:
--города 1,2,3 представляют какую-то систему1
--города N, N+1... представляют какую-то систему2
--пункты описания (1), (2), (3) представляют какую-то систему3

То, скажи пожалуйста, сколько мы имеем в этом случае траекторий внимания?

и т.п. примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательны
Отлично подмечено. Можно сказать, что сны развиваются в пространстве многомерных траекторий внимания, с которыми сознание просто не способно совладать.

если можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)
Думаю, что мэтр в том примере был несколько эээ "нечестен". [я напишу]

Что-то мы запутались в маркировке тем, у нас потерялся по этой теме:

Место для тренировки Декодера4
http://community.livejournal.com/metapractice/94480.html

Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.
Полезно различать:
-- внимание делающего описания декодера: оператора (агента) изменений, Алисы/Боба и
--внимание Чарли, того кто воспринимает описание

Строго говоря, то что для Чарли является именно "траекторией внимания", для Алисы/Боба является "последовательностью описания".

По отношению к определенным смысловым/содержательным контекстам последовательность описания может быть:
--системной
--бессистемной

Про саму модель Декодера подробнее здесь(http://community.livejournal.com/metapractice/34050.html)
Ну, эту модель еще описывать и описывать. Впрочем, незавершенность ее описания нисколько не мешает использовать то, что уже известно.

Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо. Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).
Последовательность "туда - сюда", строго говоря является эээ "метрической". Причем, из того же класса, что и "вверх - вниз".

Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.
Каждая модель НЛП обязательно должна содержать нейрологическую, лингвистическую и программную компоненты.

А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.
Траектории внимания наиболее насыщены программной/алгоритмической компонентой, но есть и другие.

И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать декодером? Накидаем базовый список вариантов последовательностей декодера:
Немного смешно получается в такой твоей формулировке :) Ведь любое, даже бессистемное описание уже есть последовательность. Это свойство языка. Как только мы используем язык - мы используем последовательности, некоторые из которых представляют более системный и полезный декодер, некоторые являются шумом, некоторые - неполезными.

- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)
Здесь я бы выделил две последовательности:
--"появление" - "пребывание" (пришел - увидел, победил)
--пришёл - увидел - победил

- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)
Ну, переход параметров за некий оптимум может изменить "смысл ситуации".

- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)
Уровни обобщения(?): Вася - знакомый - человек - обитатель Земли - ...

Это совсем грубая классификация, наверняка неполная и несбалансированная.
Наметка. Но ты не упомянул другой важный момент: введение новых качественных оснований для декодерных описаний позволяет:
--резко увеличить их информационную емкость без пропорционального разрастания объема
--то же и с эффективностью

А за счет чего? А за счет ОДНОВРЕМЕННОГО использования нескольких траекторий с разными их эээ "основаниями".

Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.
С примерами не проблема, ибо КАЖДАЯ техника содержит, по меньшей мере, несколько траекторий Д. Будет интересно найти КРАСИВЫЕ/поучительные примеры.

  • 1
?

Log in

No account? Create an account