Представим себе переменную, описывающую некоторую точку контура, и предположим, что с переменной происходит случайное изменение величины, вызванное, возможно, воздействием некоторого внешнего для контура события. Теперь мы спрашиваем: как это изменение скажется на значении этой переменной позднее, когда последовательность эффектов обойдет вокруг всего контура? Ясно, что ответ на последний вопрос будет зависеть от характеристик контура и, следовательно, будет неслучайным.
В целом, контур причинности будет генерировать неслучайный отклик на случайное событие в той точке, в которой случайное событие произошло.
Таково общее требование для создания кибернетического ограничения любой переменной в любой заданной точке. Конкретное ограничение, создаваемое в каждом конкретном случае, будет, конечно, зависеть от характеристик конкретного контура: от того, будет ли общее усиление позитивным или негативным, от временных характеристик, от порогов срабатывания и т.д. Все это вместе взятое определит те ограничения, которые будут наложены на любую заданную точку.
Если мы наблюдаем, что машина движется с постоянной скоростью даже при изменении нагрузки (что невероятно), то для целей кибернетического объяснения нам следует поискать ограничение, т.е. такой контур, который будет активизироваться изменениями скорости и, будучи активизирован, станет воздействовать на некоторую переменную (например, на подачу топлива) таким образом, чтобы уменьшить изменение скорости.
Если мы наблюдаем, что обезьяна печатает прозу (что невероятно), нам следует поискать некоторый контур, который активизируется всегда, когда обезьяна делает "ошибку" и, будучи активизирован, уничтожает признаки этой ошибки в позиции ее возникновения.
Кибернетический метод негативного объяснения поднимает вопрос: есть ли разница между тем, чтобы "быть правым" и тем, чтобы "не быть неправым"? Должны ли мы говорить о крысе в лабиринте, что она "выучила правильный маршрут", или же только то, что она обучилась "избегать неправильных маршрутов"?
Субъективно я чувствую, что знаю, как произносить множество английских слов, и мне определенно ничего не известно об отбрасывании мною буквы "k" как бесперспективной при необходимости произнести слово "many". Однако согласно кибернетическому объяснению первого уровня дело представляется так, что, произнося "many", я активно отвергаю альтернативу "k".
На нетривиальный вопрос и ответ будет одновременно и уклончивым и фундаментальным: не все выборы принадлежат одному уровню. Возможно, ради того, чтобы избежать ошибки при подборе слова для данного контекста, мне пришлось отвергнуть "few", "several", "frequent" и т.д. и выбрать "many". Но если я способен достигать этого более высокого уровня выбора на негативной основе, то значит слово "many" и его альтернативы должны быть каким-то образом умопос-тижимы. Они должны существовать в качестве различимых и, возможно, маркированных или кодированных паттернов моих нейронных процессов. Если они в некотором смысле существуют, то из этого следует, что после выбора на высоком уровне слова для использования, я не должен обязательно столкнуться с альтернативами более низкого уровня. Исключение буквы "k". из слова "many" может стать необязательным. Будет правильным сказать, что я позитивно знаю, как произносить "many", а не просто знаю, как избежать ошибок при произнесении этого слова.
Из этого следует, что шутка Льюиса Кэрролла по поводу теории естественного отбора не вполне убедительна. Если в коммуникативных и организационных процессах биологической эволюции существует что-то вроде уровней (как то: одиночные явления, паттерны и, возможно, паттерны паттернов), тогда для эволюционной системы логически возможно совершение чего-то вроде позитивных выборов. Можно представить, что такие уровни (структурирование) могли бы существовать в генах, между генами или где-то еще.
От контуров вышеупомянутой обезьяны требовалось бы различать отклонения от "прозы", а проза характеризуется паттерном, или избыточностью, как говорят инженеры.