Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта. Благодаря им мы улучшаем сайт!
Принять и закрыть

Читать, слущать книги онлайн бесплатно!

Электронная Литература.

Бесплатная онлайн библиотека.

Читать: Психология интеллекта и одаренности - Дмитрий Викторович Ушаков на бесплатной онлайн библиотеке Э-Лит


Помоги проекту - поделись книгой:

Ч. Спирмен, положивший начало разработке факторного анализа, показал, что между большинством мер интеллекта существуют положительные корреляции. Он обозначил это термином «положительная множественность» (positive manifold). Это означает, что если субъект А существенно превосходит субъекта В по ряду субтестов интеллекта, то с большой вероятностью А будет превосходить В и по другим субтестам. Спирмен высказал также утверждение, что существует единый фактор, определяющий успешность решения задач от наиболее сложных математических до сенсомоторных проб.

Главным оппонентом Спирмена стал американский ученый Л. Терстон, который обосновывал мнение, что существует не единый интеллектуальный фактор, а набор независимых способностей, которые определяют успешность интеллектуальной деятельности.

Очень скоро, однако, стало выясняться, что обе позиции представляют собой упрощение, а истина лежит посередине.

Эволюцию претерпели уже взгляды основателя подхода Спирмена, который согласился, что добавление дополнительных более локальных факторов улучшает модель. Однако при этом сохраняется особый статус первого, генерального фактора (Спирмен назвал его фактором G, от general – общий). Критериев для признания первого фактора генеральным два, и они должны одновременно выполняться: во-первых, по этому фактору должны быть положительно нагружены все задания (или подавляющее их большинство); во-вторых, процент объясняемой дисперсии должен быть велик – как правило, не менее 40. Результаты решения сотен интеллектуальных задач тысячами испытуемых при факторизации дают каждый раз сходную картину. Факторная структура, получаемая без вращения, образует выраженный генеральный фактор. Такая структура изображена на рисунке 1.5 слева и носит в англоязычной литературе название «гнездовой» (nested).

Таким образом, решение любой конкретной задачи человеком, согласно Спирмену, зависит от развития у него как способности, связанной с фактором G, так и от одной или нескольких из набора специфических способностей, необходимых для решения узкого класса задач. Эти специальные способности носят у Спирмена название S-факторов (от special – специальный). Роль фактора G наиболее велика при решении математических задач и задач на понятийное мышление. Для сенсомоторных задач роль общего фактора уменьшается при увеличении влияния специальных факторов.

Другая картина, однако, складывается при применении факторного анализа с вращением. Факторный анализ приводит к распределению в многомерном пространстве точек, соответствующих факторизуемым объектам. Однако выбор системы координат, ортогональных или косоугольных, в этом пространстве произволен. В то же время именно система координат позволяет дать факторам ту или иную содержательную интерпретацию. Вращение системы координат, представляющее собой математически корректную процедуру, приводит к изменению интерпретации всех данных.

При проведении вращения проценты дисперсии, объясняемые несколькими первыми факторами, в значительной степени выравниваются, в результате чего первый фактор становится невозможно трактовать как генеральный: падает процент объясняемой им дисперсии, и не все задания оказываются нагруженными по нему. Решение, полученное после вращения, таким образом, не имеет генерального фактора. Однако при факторизации полученных факторов возникает один фактор более высокого порядка, который может интерпретироваться как генеральный. Получаемая факторная структура, которая носит название иерархической, изображена на рисунке 1.5 справа.

Итак, справа изображена иерархическая модель, которая возникает из результатов факторного анализа с вращением и вторичной факторизацией. Факторы первого уровня в ней нагружены по генеральному фактору, который располагается на следующем уровне.

Слева – гнездовая модель, которая вытекает из традиции факторизации без вращения. Генеральный фактор в ней непосредственно связан со всеми задачами, которые нагружены и по специальным факторам.

Таким образом, на одних и тех же данных, получаемых в большинстве исследований, возможны две альтернативные интерпретации. Какая из этих интерпретаций оптимальна? Ответ на этот вопрос тем более сложен, что при вращении процент дисперсии, определяемой выделенными факторами, не меняется, так что объяснительная сила обоих вариантов решения одинакова.

В современной психологии интеллекта эксплораторный факторный анализ, который обсуждался до сих пор, не только дополнен, но и фактически вытеснен конфирматорным, позволяющим сравнивать соответствие данным различных априорно заданных моделей. Применение конфирматорного анализа, безусловно, позволяет существенно продвинуться в плане проверки гипотез. В принципе можно сопоставить гнездовую и иерархическую модели в плане их соответствия данным. Однако применительно к структуре интеллекта конфирматорный анализ показывает фактически одинаковую применимость двух принципиально разных типов моделей, которые изображены на рисунке 1.5. Хотя иерархическая и гнездовая модель не тождественны, однако разница между их предсказаниями весьма невелика, что на практике часто делает невозможным окончательное предпочтение одной из них.


Рис. 1.5. Гнездовая и иерархическая модели интеллекта

Любое исследование интеллекта на практике имеет дело с ограниченным кругом задач, предъявляемых выборке. Тесты интеллекта заставляют испытуемых работать с максимальными усилиями и оказываются достаточно утомительными. Набрать большое количество испытуемых, чтобы провести батарею из 40–60 субтестов, непростая задача для экспериментатора. В то же время число различных типов заданий, применяемых при тестировании интеллекта, измеряется сотнями. Оптимальным для оценки факторной структуры интеллекта было бы проведение всех возможных субтестов на одной и той же выборке (не следует забывать, что для проведения факторного анализа число испытуемых должно существенно превышать число субтестов) с последующей факторизацией. Однако по приведенным выше практическим соображениям это трудноосуществимо[9]. Наиболее частыми являются исследования с относительно ограниченным числом субтестов. Соответственно, в зависимости от набора субтестов в конкретном исследовании оптимальной может оказаться либо иерархическая, либо гнездовая модель, однако удовлетворительность обеих часто бывает на примерно одинаковом уровне.

Для анализа общей структуры интеллекта, однако, интерес представляют именно исследования, выполненные на большом тестовом материале, а не анализ факторной структуры теста Векслера или Амтауера.

Рассмотрим общие теории структуры интеллекта, сложившиеся после Спирмена и Терстона.

В послевоенный период широко обсуждалась «кубическая» модель Дж. Гилфорда, что происходило, вероятно, в большой мере под влиянием авторитета ее автора, заложившего систему отбора персонала в Вооруженных силах США и возглавлявшего в течение некоторого времени Американскую психологическую ассоциацию. Гилфорд считал, что способности определяются тремя основными характеристиками: операциями, содержанием и продуктами. Среди операций в исходном варианте своей модели он различал познание, память, дивергентное и конвергентное мышление и оценку, среди содержаний – образное, символическое, семантическое и поведенческое; среди продуктов – элементы, классы, отношения, системы, преобразования, предвидения (Гилфорд, 1965).

Любая задача основывается на содержании того или иного вида, предполагает осуществление определенной операции, которая приводит к соответствующему продукту. Например, задача, где требуется получить слово, вставив гласные буквы в «з_л_в» (слово «залив»), разворачивается на символическом материале (буквы), связана с операцией познания и приводит к элементу в качестве продукта. Если же мы попросим испытуемого завершить ряд «лом – мол, куб – бук, сон – …», то, по мнению Гилфорда, это будет задача на конвергентное мышление, относящееся к отношениям, на символическом содержании. В общей сложности, таким образом, выделяется 5×4×6 = 120 типов задач (в более поздней версии теории – 150), каждому из которых соответствует определенная способность.

Теория Гилфорда весьма умозрительна, он шел не от данных к факторной структуре, а наоборот – от гипотетической факторной структуры к данным. Такой подход возможен, однако должен опираться на обоснованную теорию переработки информации, исходя из которой можно было бы выдвигать серьезные гипотезы, подвергаемые факторной проверке. В то же время предположения Гилфорда покоятся на априорной классификации, которая выглядит достаточно поверхностной. Для обоснования своей теории он систематически использовал факторный анализ с так называемым субъективным вращением. В настоящее время, однако, математические методы Гилфорда подвергаются сильной критике. Показано, что его данные могут быть объяснены исходя из другой факторной модели (Стернберг, Григоренко, 1997). Более того, при использовании данных Гилфорда и его методов факторного анализа случайным образом сгенерированные факторные модели получают столь же хорошее подтверждение, как и его теория (Mackintosh, 1998). В целом сегодня модель Гилфорда рассматривается как пройденный и не очень продуктивный этап. Например, Дж. Кэрролл характеризовал ее как «эксцентрическое умопомрачение в истории моделей интеллекта» (Carroll, 1993, с. 60).

Если подход Гилфорда воспринимается с современных позиций как реликт, то другой круг старых идей, связанный с моделью Р. Кэттелла, представляет по-прежнему существенный интерес в теоретическом плане. Кэттелл различил текучий (fluid) и кристаллизованный (cristalized) интеллект. Текучий интеллект заключается в способности решать задачи, для которых в малой степени требуется предыдущий опыт, знания или навыки. Он проявляется в задачах на индуктивное мышление (например, тесте Равена), дедукцию, рассуждение на числовом материале, скорости умозаключения и т. д. К кристаллизованному интеллекту относится способность решать задачи, приобретенная на основе образования, доступа к культурной информации и опыта. Он проявляется в тех субтестах тестов интеллекта, которые оценивают лексические знания, информированность, легкость речепорождения, способность к иностранным языкам и владение ими т. д.

Разделение на текучий и кристаллизованный интеллект теоретически интересно и позволяет обнаружить эмпирические закономерности. Так, текучий интеллект начинает снижаться еще в достаточно молодом возрасте, в то время как кристаллизованный дольше растет, а затем дольше остается неизменным. Люди из разных культур в большей степени различаются по кристаллизованному интеллекту, чем по текучему, что также понятно, поскольку культуры различаются в плане информации и опыта, получаемых людьми. Наконец, текучий интеллект в течение XX в. в рамках так называемого эффекта Флинна, о котором речь пойдет ниже, вырос больше, чем кристаллизованный. Все перечисленные факты говорят о том, что за различением, предложенным Кэттеллом, стоит достаточно важная реальность.

Правда, у родоначальника идеи факторы текучего и кристаллизованного интеллекта заняли довольно странное место в структуре интеллекта. Кэттелл исходил из представления Л. Терстона о первичных умственных способностях и поставил предложенные им новые факторы над первичными способностями. У него, следовательно, на месте одного генерального фактора оказалось два, причем достаточно сильно коррелирующих между собой.

Исправлением положения занялся ученик Кэттелла Дж. Хорн, который предложил ввести на одном уровне с текучим и кристаллизованным интеллектом еще целый ряд дополнительных факторов. Правда, Хорн называл введенные им факторы по-разному, иногда ухитряясь делать это даже внутри одной статьи. Его список факторов несколько разнится от работы к работе, однако в классическом виде кроме текучего (1) и кристаллизованного (2) интеллекта включает 3) переработку визуальной информации, 4) переработку слуховой информации, 5) кратковременную память, 6) долговременную память, 7) скорость переработки информации, 8) скорость принятия решений, 9) квантитативные знания и 10) чтение и письмо. Хотя все перечисленные факторы коррелируют между собой, фактически образуя генеральный фактор, Кэттелл и Хорн никогда не подчеркивали эту идею.

Самым влиятельным трудом в области структуры интеллекта в конце XX в., несомненно, стала книга Кэрролла «Когнитивные способности человека: обзор факторно-аналитических исследований» (Carroll, 1993). В отношении этой книги высказано немало восторженных оценок. К. Макгрю сравнил ее с «Принципами» Ньютона (McGrew, 2009), а, по мнению Хорна, Кэрролл проделал работу, аналогичную той, что совершил Д. И. Менделеев при создании периодической таблицы (Horn, 1998). Действительно, масштаб и последовательный подход автора впечатляют. Кэрролл проанализировал более 460 корреляционных матриц наиболее значительных исследований интеллекта, проведенных различными авторами в течение предыдущих 50–60 лет, и предложил свою «трехслойную» (three-stratum) модель. Это иерархическая факторная модель, подобная изображенной на рисунке 1.5 справа, но имеющая не 2, а 3 уровня.

Верхний уровень (Слой III) включает единый генеральный фактор, в то время как следующий за ним (Слой II) включает факторы, которые могут быть сопоставлены с теми, что были выделены Хорном. Это те же 1) текучий и 2) кристаллизованный интеллект, а также 3) переработка визуальной информации, 4) переработка слуховой информации, 5) общая память и обучаемость, 6) способность к извлечению информации, 7) скорость переработки информации, 8) скорость реакции и принятия решений. Наконец, было выделено более 80 способностей Слоя I, которые входят в различные факторы Слоя II. Например, в фактор «переработка визуальной информации» Слоя II входят такие способности Слоя I, как визуализация, пространственные отношения, скорость замыкания пространственных фигур, гибкость замыкания пространственных фигур (например, в тесте «включенные фигуры»), зрительная память, зрительное сканирование и т. д. Для измерения всех способностей Слоя I существуют задания, которые применялись в исследованиях, проанализированных Кэрроллом.

Работа Кэрролла производит впечатление наиболее масштабного синтеза в области психологии структуры интеллекта. К тому же итоговая модель настолько близка к теории Кэттелла – Хорна, что Макгрю предложил осуществить их синтез под названием модели CHC (Cattell – Horn – Carroll). Макгрю указывает на четыре основных различия моделей (McGrew, 2009). Во-первых, присутствие у Кэрролла генерального фактора. Во-вторых, Кэрролл включил способности к чтению и письму в кристаллизованный интеллект, в то время как у Хорна они выделены в отдельный фактор. В-третьих, у Кэрролла отсутствует фактор квантитативных знаний, а соответствующие способности рассматриваются в главе «Способности в сфере знаний и достижений». Наконец, факторы кратковременной и долговременной памяти, разводимые в модели Кэттелла – Хорна, объединены у Кэрролла. Макгрю предлагает следующее разрешение этих противоречий для осуществления синтеза моделей. Безусловно, единый генеральный фактор должен присутствовать на вершине модели, что показывает и исследование Кэрролла, и факторный анализ всех крупных интеллектуальных батарей. Способности к чтению и письму, по мнению Макгрю, выделяются в отдельный фактор, независимый от кристаллизованного интеллекта, квантитативное знание выделяется из текучего интеллекта, а кратковременная и долговременная память должны быть разнесены по разным факторам.

Таким образом, под «зонтичным» термином CHC Макгрю предлагает трехслойную модель, в которой, по сравнению с Кэрроллом, несколько увеличено число факторов Слоя II.

Модели Кэттелла – Хорна и Кэрролла, независимо от того, принимается ли их синтез в виде CHC или нет, являются на сегодня инструментом, который широко принят и часто используется исследователями в экспериментальных целях. Однако это не значит, что эта линия в понимании структуры интеллекта победила и не имеет альтернативы.

Другая линия идет от Ф. Вернона, который в свою очередь исходил из идей Спирмена, выделившего генеральный фактор интеллекта и 3 групповых фактора: числовой, пространственный и вербальный. Вернон построил не трехслойную, как Кэрролл, а четырехслойную модель. Во главе иерархии, в Слое IV он поставил генеральный фактор, а в Слой III (групповые факторы) включил всего два вместо трех спирменовских: вербально-образовательный и пространственно-практически-технический. Еще ниже, в Слое II, первый из этих факторов делится на вербальный, образовательный и легкость продуцирования (fluency), а второй – на пространственный, числовой, перцептивный и т. д.

В 2005 г. В. Джонсон и Т. Бушар опубликовали исследование факторной структуры 42 субтестов интеллекта, проведенных в рамках Миннесотского проекта на 436 испытуемых, состоящих из 128 пар близнецов, разлученных в раннем возрасте, и членов их семей (Johnson, Bouchard, 2005). Авторы сопоставили с помощью конфирматорного факторного анализа модели Кэттелла – Хорна, Кэрролла и Вернона и пришли к заключению в пользу последней. По их данным, наилучшее соответствие данным модель Вернона показывает в случае некоторой модернизации, состоящей в добавлении к двум факторам Слоя III третьего – умственного вращения, а также одного фактора Слоя II – памяти.

Таким образом сложилась модель VPR (Verbal – Perceptual – Image rotation). Это четырехслойная модель с тремя факторами в Слое III (вербальным, перцептивным и умственного вращения) и восьмью в Слое II (вербальным, академических способностей, легкости продуцирования, числовым, памяти, перцептивной скорости, пространственным и умственного вращения). В Слое I предполагаются примерно те же способности, что и у Кэрролла, хотя этот вопрос не проработан подробно. По мнению Джонсон и Бушара, модель VPR больше, чем модель Кэрролла, соответствует известным данным о функциях зон мозга и межполушарной асимметрии. Они произвели сопоставление моделей еще на трех выборках, где испытуемым предъявлялись обширные батареи интеллектуальных тестов. Всюду сопоставление оказалось в пользу модели VPR.

В целом между сторонниками CHC– и VPR-моделей идет соперничество. И те, и другие вывесили корреляционные матрицы исследований интеллекта на сайте журнала Intelligence (www.isironlline.org). Модели CHC и VPR, как уже было показано, при совпадении общей конфигурации (иерархические с генеральным фактором) различаются по ряду позиций. Во второй – на один слой больше, кроме того, выделяются другие групповые факторы. Современные методы конфирматорного факторного анализа позволяют сопоставить соответствие моделей данным любого эмпирического исследования. Однако проблема заключается в том, что такие результаты на материале любого отдельно взятого исследования не служат решающим доказательством. Джонсон и Бушар получили подтверждение их модели уже на 4 больших выборках, однако это не рассматривается сторонниками уступивших моделей как решающий аргумент против их подхода. В ситуации, когда существуют сотни исследований, в которых используются разные наборы тестов, обнаружение большей адекватности одной модели по сравнению с другими на некоторых из этих наборов и на некоторых выборках не служит доказательством преимущества модели в общем случае. Все же представляется, что это временная сложность, которая будет преодолена при помощи развития методов интеграции данных из разных источников и проведения специально спланированных исследований с применением обширных и специальным образом подобранных тестовых батарей. Современной психологии уже известно достаточно много о структуре интеллекта, есть обширные базы данных, методы статистической обработки данных.

Однако основной вопрос заключается в том, что означают структуры в плане стоящих за ними процессов переработки информации. Здесь анализ должен быть переведен в более глубокий, «онтологический», по выражению М. А. Холодной (Холодная, 1997, 2002), план, где математическая структура получает интерпретацию в терминах психических процессов, или механизмов. Этот перевод в современной психологии интеллекта осуществляется с помощью того, что мы будем называть структурной предпосылкой.

Структурная предпосылка

Структурная предпосылка заключается в предположении, что корреляции между тестовыми заданиями на интеллект (а значит, и их факторная структура) обусловлены тем, что за их выполнением стоит какой-то общий механизм. Например, если наблюдается корреляция между обнаружением идентичности повернутых друг относительно друга фигур и определением симметричности изображений, то можно предположить, что за обоими заданиями стоит механизм умственного вращения. Если коррелируют задание нахождения антонимов и решение анаграмм, то в основе может лежать механизм доступа к вербальному материалу в долговременной памяти. Если соответствующий механизм у человека развит лучше, то все задачи, решаемые с помощью этого механизма, будут выполняться им быстрее и точнее. Генеральный фактор в этом случае должен объясняться наличием механизма, участвующего в решении всех задач.

Структурная предпосылка, с одной стороны, выглядит очень естественной, а с другой стороны, обещает серьезный научный прорыв.

Что касается естественности, то несомненно, что наличие общего механизма обязательно приводит к корреляции функций. Отсюда вполне естественным выглядит положение о том, что за корреляцией функций обязательно стоит наличие общего механизма.

В то же время использование структурной предпосылки обещает переход от описания индивидуальных различий к исследованию составляющих когнитивной системы, ее компонентов. В самом деле, выявляемая математическим анализом факторная структура интеллекта в этом случае должна интерпретироваться как структура основных блоков когнитивной системы, а дальше, возможно, и – блоков осуществляющего когнитивную деятельность мозга.

Вообще структурная предпосылка отлично сочетается с основным статистическим инструментом в исследовании структуры интеллекта – факторным анализом. Применение факторного анализа уже означает принятие определенных представлений о механизмах, которые стоят за результатами тестов. Факторы линейно связаны с наблюдаемыми переменными и между собой. В случае влияния двух или более факторов на одну переменную эти влияния суммируются. Факторы легко интерпретируется как общие механизмы, стоящие за выполнением различных тестовых заданий.

Неудивительно, что при своей естественности и обещаемых широких перспективах структурная предпосылка фактически безраздельно господствует в современной психологии интеллекта, хотя и не в виде хорошо отрефлексированного принципа, а как имплицитное основание теоретизирования и эмпирических исследований. Рискнем, однако, утверждать, что именно эта предпосылка является источником многих неразрешимых вопросов, встающих перед исследованием структуры интеллекта.

Обратимся теперь к тому, какую форму приобретает проблема генерального фактора интеллекта в случае принятия структурной предпосылки. Если у всех возможных задач существует общий компонент, то отдел когнитивной системы, его реализующий, приобретает особое значение. Он принимает участие в решении всех задач, следовательно, определяет общий интеллект.

Однако что же представляет собой тот механизм, лучшее функционирование которого дает его обладателю преимущества в решении всех мыслительных задач перед тем, кто обладает худшим механизмом? На этот вопрос есть три основных варианта ответа.

Согласно однокомпонентному подходу, за генеральный фактор отвечает некий единый когнитивный механизм. При многокомпонентном подходе предполагается, что генеральный фактор – равнодействующая совокупности различных когнитивных механизмов. Наконец, элементный подход рассматривает генеральный фактор как результат различной эффективности работы элементов, из которых построена когнитивная система, т. е. нейронов.

Однокомпонентный подход

Первый вариант заключается в том, что генеральный фактор обусловлен работой одного единственного механизма, процесса, или «блока» когнитивной системы, участвующего в решении всех мыслительных задач. Степень развития этого механизма и определяет интеллектуальные способности человека, что, согласно этой точке зрения, приводит в итоге факторного анализа к появлению генерального фактора.

Каков же этот механизм? Для ответа на этот вопрос нужно проделать работу, включающую несколько шагов. Во-первых, необходимо выдвинуть правдоподобную гипотезу о том, каков может быть этот механизм, обосновать теоретически, что именно он требует для успешного решения интеллектуальных задач человеком. Во-вторых, следует разработать измерительные процедуры для этого механизма, которые позволят оценить уровень его развития у различных индивидов. В-третьих, нужно измерить корреляцию развития этого механизма с генеральным фактором интеллекта. Если эта корреляция окажется очень высокой, это может служить аргументом в пользу того, что механизм, лежащий в основе интеллекта, действительно обнаружен.

Основным и наиболее обсуждаемым кандидатом на роль такого процесса в современной психологии выступает рабочая память. С теоретической позиции это достаточно естественно. Весьма правдоподобно, что способность к решению интеллектуальных задач выше у тех людей, которые способны одновременно держать в голове большее число идей. Подобную концепцию уже очень давно выдвинул один из предшественников Ж. Пиаже Дж. Болдуин, правда, в несколько ином контексте. Болдуин полагал, что развитие интеллекта в онтогенезе можно объяснить увеличением количества элементов, с которыми может одновременно работать мышление. Хотя Пиаже подобные представления отвергал, неопиажеанцы вновь к ним вернулись (Pasqual-Leone, 1987).

Для дальнейшего необходимо уточнить современные представления о рабочей памяти и, в частности, развести ее с кратковременной памятью. Классические работы по кратковременному запоминанию показали, что для объяснения результатов недостаточно прибегнуть к представлению о неком хранилище, где информация существует в течение ограниченного промежутка времени. Были предложены более сложные модели, включающие как управляющие (executive) процессы, которые запускают, переключают, отслеживают работу других когнитивных механизмов, так и служебные (slave) системы – артикуляторное кольцо и визуально-пространственный буфер, а также центральный управляющий компонент.

Представление о кратковременном запоминании как сложной структуре, задействующей различные компоненты и процессы, и привело к различению рабочей и кратковременной памяти.

Н. Коуен на основании представлений о едином следе памяти различил рабочую и кратковременную память следующим образом. Кратковременная память включает элементы долговременной памяти, получившие в определенный момент времени надпороговую активацию. В рабочую память входит лишь часть этих элементов, а именно те, с которыми активно работают аттенциональные механизмы, связанные с управляющими процессами (Cowan, 1988, 1995). Таким образом, кратковременная память – это просто хранилище информации, а рабочая память – еще и аттенциональные управляющие процессы.

Первую задачу, которая рассматривается как валидный тест рабочей памяти, разработали М. Данеман и П. Карпентер (Daneman, Carpenter, 1980). Это так называемая RS (reading span) задача, которая состоит в том, что испытуемому предъявляются несколько простых фраз, относительно которых он должен, например, сказать, являются ли они истинными. После того, как все фразы предъявлены, необходимо воспроизвести последние слова этих фраз. Вскоре была разработана OS (operation span) задача, где испытуемые должны были выполнять арифметические действия и запоминать слова, находящиеся в конце строки с описанием арифметических действий.

Обе эти задачи относятся к типу двойных задач, где испытуемый должен сочетать запоминание с дополнительным действием (счетом, опознанием фраз и т. д.).

Стало возникать представление о том, что как RS-, так и OS-задачи оценивают важную когнитивную способность, связанную не столько с содержанием (вербальным, пространственным, числовым и т. д.), сколько с возможностью параллельного выполнения задач.

В область интеллекта проблема рабочей памяти была эксплицитно внесена в высокоцитируемой статье 1990 г. П. Киллонена и Р. Кристала под эпатирующим названием «Способность к рассуждению – это (немногим больше, чем) рабочая память»[10] (Kyllonen, Christal, 1990) Авторами была разработана специальная батарея для измерения рабочей памяти. Она показала настолько высокие корреляции интеллекта и рабочей памяти, что, по мнению авторов, эти два понятия близки к тому, чтобы совпасть.

Дополнительную поддержку объяснение генерального фактора через рабочую память находит в некоторых исследованиях процессов решения интеллектуальных задач.

Насколько на самом деле велики корреляции интеллекта с рабочей памятью? Для ответа на этот вопрос, конечно же, надо обратиться к мета-аналитическим работам, поскольку именно они дают взвешенные результаты, основанные на совокупности проведенных исследований. В 2005 г. на эту тему были опубликованы два мета-анализа – один американскими, другой немецкими авторами. Американский мета-анализ подводит к выводу, что корреляция рабочей памяти с генеральным фактором интеллекта не столь велика, как это часто предполагают, что она практически не выше корреляций кратковременной памяти с интеллектом и находится примерно на уровне 0,5, если анализируются латентные переменные, и – ниже, если речь идет о манифестных переменных.

Итак, даже если генеральный фактор интеллекта и генеральный фактор рабочей памяти и обнаруживают до 70 % общей дисперсии, то 30 % их дисперсии различаются.

Если мы имеем тестовые задачи, объясняющие 70 % дисперсии генерального фактора интеллекта, и точно знаем когнитивный механизм, стоящий за решением этих задач, то действительно можем утверждать с большой степенью уверенности, что обнаружили механизм генерального фактора.

Далее мы можем вести поиск этого механизма в решении других задач, нагруженных по генеральному фактору, т. е. фактически всех интеллектуальных задач.

Однако необходимо, чтобы генеральный фактор интеллекта интерпретировался относительно задач, которые поддаются когнитивной трактовке. Отсюда возникает центральный вопрос: насколько «когнитивно прозрачными» являются задачи на рабочую память? Можно ли точно описать механизм, лежащий в основе их всех, а затем обнаружить этот механизм еще и за решением задач тестов на интеллект?

Представляется, что задачи на рабочую память не являются более благоприятным материалом для «когнитивной трактовки», чем тестовые задания на интеллект, такие как, например, матрицы Равена.

Различные авторы по-разному трактуют механизмы, стоящие за задачами на рабочую память. Так, Р. Ингл считает, что успешность выполнения как задач на рабочую память, так и тестов интеллекта следует искать в управляющих процессах.

К. Оберауер развил сложную и весьма интересную теорию рабочей памяти, в которой ее эффективность связывается с интерференцией, «шумом» активации семантической сети и «байндингом» – связыванием различных элементов в единую репрезентацию. Причем именно байндинг является, по его данным, тем компонентом, который в наибольшей степени связан с интеллектом.

В целом можно заключить, что рабочая память оказывается многокомпонентным конструктом, мало уступающим по сложности интеллекту. В связи с этим возникает вопрос о том, какой из процессов, включенных в рабочую память, отвечает в ней за дисперсию индивидуальных различий, общую с интеллектом. На этот вопрос разные авторы дают различные ответы. Например, как отмечалось выше, Ингл связывает ее с управляющими процессами, а Оберауер – с байндингом. Таким образом, углубление анализа вновь выводит за пределы рабочей памяти к иным когнитивным процессам.

Болеет того, существует основание считать, что генеральный фактор интеллекта вообще не может быть объяснен за счет одного процесса или структуры. Д. Деттерман указывает, что, будь эта модель верна:

а) должно было бы существовать задание, которое коррелировало бы на очень высоком уровне с фактором G;

б) не должно было бы существовать заданий, которые коррелировали бы с фактором G и не коррелировали между собой.

В то же время не менее 17 % из около 7000 корреляций интеллектуальных тестов между собой оказываются нулевыми притом, что каждый из этих тестов связан с генеральным фактором (Detterman, 1992). Альтернативу Деттерман видит в том, чтобы рассматривать генеральный фактор как усредненный результат функционирования пяти или шести компонентов, которые в разных комбинациях участвуют в решении задач, составляющих тесты интеллекта (Detterman, 1987, 1992). Фактически исследования рабочей памяти также приводят к ее разложению на отдельные компоненты.

Многокомпонентный подход

Идея многокомпонентного подхода состоит в том, что генеральный фактор общего интеллекта – это результирующая работы некоторого числа различных когнитивных процессов, или компонентов, которые в разных сочетаниях и пропорциях участвуют в решении всех мыслительных задач. Согласно этой точке зрения, результаты, показываемые испытуемыми в тестах на интеллект, могут быть объяснены уровнем функционирования у них относительно небольшого числа процессов переработки информации. Те компоненты, которые участвуют в решении большого числа задач, причем имеют существенное значение для успешности, входят в генеральный фактор с максимальным весом. Другие компоненты задействованы в меньшем числе задач или имеют второстепенное значение для их решения, их вес в генеральном факторе ниже.

Развитие когнитивного подхода снабдило психологов языком, на котором можно потеоретизировать о том, какие когнитивные процессы участвуют в мышлении. Так, Кэрролл на основании «логического и частично интуитивного анализа задачи» выделил 10 типов когнитивных компонентов: управление, внимание, восприятие, перцептивная интеграция, кодирование, сравнение, формирование параллельной репрезентации, извлечение параллельной репрезентации, трансформация, создание ответа (Carroll, 1981).

Браун обратил особое внимание на метакогнитивные процессы, которые могут иметь значение для интеллекта – планирование, контроль, тестирование, пересмотр и оценку стратегии (Brown, 1978; Brown, Campione, 1978).

Более существенный вопрос, однако, заключается в том, возможно ли эмпирически исследовать компоненты, участвующие в мыслительном процессе. В самом деле, испытуемый смотрит на задачу и выдает ответ – как в этом случае психологическими методами выделить компоненты, присутствующие в его мыслительном процессе? Способ достичь этого разработал Э. Хант. Этот способ основывается на хронометрировании решения задач, сходных между собой в одних частях решения и различных в других.

Хант использовал следующую задачу, изначально предложенную М. Познером и Р. Митчеллом. Испытуемому предъявляются пары букв, которые могут совпадать или не совпадать по названиям (т. е., по звуковому эквиваленту) и по написанию. Например, могут предъявляться пары АА, Аа, АВ, Ав. Очевидно, что в первой паре буквы совпадают как по названиям, так и по написанию – это буквы А, причем представленные в виде заглавных. Во второй паре буквы совпадают по названиям, но не совпадают по написанию – первая буква заглавная, а вторая – строчная. В третьей и четвертой парах буквы различаются по названиям, а следовательно, и по написанию.

Перед испытуемым ставятся две задачи: 1) сравнивать между собой пары букв с точки зрения их написания; 2) сравнивать их с точки зрения названий. В случае первой задачи испытуемый должен как можно скорее нажать на кнопку «Да», если буквы полностью одинаковы, и на кнопку «Нет», если они не совпадают. При второй задаче нажимать на кнопку «Да» нужно, когда названия букв совпадают. Заглавные это буквы или строчные, значения не имеет. В противном случае надо нажимать кнопку «Нет».

Очевидно, что две задачи имеют между собой много общего в плане процессов переработки информации, которых они требуют от испытуемого. В обоих случаях у испытуемого должны развиваться одни и те же процессы восприятия стимула на экране, опознания физических конфигураций, сравнения, принятия решения о сходстве или несходстве, управления движением пальца, нажимающего на кнопку и т. д. Однако есть и различие – в случае сравнения названий должен включиться дополнительный процесс – лексического доступа, т. е. поиска в семантической памяти названия буквы по ее физическим признакам. Время выполнения задания испытуемым в этом случае оказывается несколько больше. Этот прирост определяется характеризующей данного испытуемого скоростью поиска названия буквы в долговременной памяти.

Хант перенес задачу Познера и Митчелла в план проблемы индивидуальных различий и сопоставил с результатами тех же испытуемых по тестам интеллекта. Он показал, что разность во времени решения между задачей сравнения названий и физического сравнения коррелирует на уровне r = –0,3 с вербальным интеллектом испытуемого (Hunt, 1978). Другими словами, выделенный элементарный процесс лексического доступа, по-видимому, является одним из основных в выполнении тестовых заданий на вербальный интеллект.

Принцип анализа, проводимого в рамках компонентного подхода, таким образом, заключается в предъявлении испытуемому семейства родственных задач, различающихся между собой лишь одним компонентом, хронометрировании решения с целью выявления разности времени, затрачиваемого на выполнение того или иного компонента с дальнейшим сопоставлением этой разности с характеристиками интеллекта испытуемых.

Р. Стернберг продолжил линию хронометрических исследований в целях информационного анализа интеллектуальных процессов. Одна из его известных работ посвящена анализу решения так называемых «линейных силлогизмов».

Линейным силлогизмом называется умозаключение, выводимое из посылок типа «Анна выше, чем Маргарита. Маргарита выше, чем Екатерина. Кто самая высокая?» или «Джон не старше, чем Роберт. Дэвид не моложе, чем Джон. Кто самый молодой?» Даже при поверхностном взгляде ясно, что приведенные выше две задачки имеют разную трудность. Эксперимент фиксирует различия во времени их решения и проценте ошибок.

Особенность работы Стернберга заключается в том, что хронометрический анализ используется для установления того, какая из альтернативных гипотетических моделей – вербальная, пространственная или смешанная – больше соответствует эмпирическим данным. В первом случае предполагается, что испытуемый строит пропозициональные репрезентации каждой из посылок, затем объединяет их в общую пропозициональную же репрезентацию и делает вывод. Пространственная модель предполагает, что с самого начала создаются пространственные репрезентации каждой из посылок, которые затем объединяются в общую пространственную репрезентацию. В соответствии со смешанной моделью субъект вначале строит пропозициональную репрезентацию, а затем перекодирует ее в пространственную.

Эмпирически проверяемыми эти модели становятся благодаря тому, что некоторые когнитивные операции очевидно более трудны для осуществления в пространственных представлениях, другие – в лингвистических. Например, если мы кодируем отношения А>В>С>D>E в пропозициональной форме, то установление отношений между более удаленными членами потребует больше шагов и, следовательно, займет больше времени, чем установление отношений между более ближними. В случае пространственной репрезентации, наоборот, отношения между наиболее отличными членами (самым большим и самым маленьким) установить проще всего.

Исследование линейных силлогизмов показало, что большинство испытуемых используют смешанную стратегию, хотя некоторые используют вербальную и пространственную. Возникает вопрос, чем определяется выбор стратегии?

По Стернбергу получается, что испытуемый способен произвольно выбирать между использованием различных видов репрезентаций и стратегий. Можно ожидать, что в ряде случаев этот выбор зависит от способностей: испытуемые с более развитыми пространственными способностями предпочитают пространственную стратегию, а те, у кого развит вербальный интеллект, выберут вербальную. Экспериментальные данные на этот счет, однако, довольно противоречивы (Стернберг, 1996).

Модель, которая получается в результате исследования типа только что представленного, в принципе является моделью решения лишь одной задачи. В качестве обобщения Стернберг выделяет три типа информационных компонентов: метакомпоненты (meta-components), исполнительные компоненты (performance components) и компоненты, отвечающие за приобретение знаний (knowledge-acquisition components) (Gardner, 1983; Sternberg, Gardner, 1982).

Если первые два типа примерно соответствуют тому, о чем писали Браун и Кэрролл, то последний составляет отличительную черту теории Стернберга.

Все же и предлагаемая Стернбергом классификация не снимает существенного упрека, выдвигаемого критиками компонентного подхода (см. например: Neisser, 1982) – компонентов в принципе может быть бесконечное множество, и строить их теорию бессмысленно. Стернберг частично принимает этот аргумент, однако отвечает, что наиболее важных и часто используемых компонентов не так много, и можно создать их вполне обозримую теорию. Впрочем, за более чем двадцать лет существования компонентного подхода этой теории мы так и не дождались. В этом плане компонентный подход не дает видения интеллекта как интегративного целого и не приводит к прогрессу, например, в сфере проблемы измерения интеллекта.

В своих более поздних работах Стернберг стремится поставить информационный анализ интеллекта в более широкий контекст. В этих целях им развита «триархическая теория интеллекта», которая утверждает необходимость анализа интеллекта в трех планах – в отношении к внутреннему миру, в отношении к внешнему миру и в отношении к опыту.

Под внутренним миром понимаются информационные процессы, о которых речь шла только что. В своих поздних работах Стернберг утверждает, что нужно исследовать эти процессы не просто сами по себе, но и в контексте того, на что они направлены (на адаптацию, формирование среды или ее выбор), и того, насколько новой является для субъекта задача. Таким образом, Стернберг пытается интегрировать информационный подход с более широким взглядом на интеллект человека.

В плане отношения к внешнему миру Стернберг выделяет стили интеллектуальной деятельности. Законодательный стиль, необходимый для человека, совершающего творческие открытия, состоит в том, что субъект сам устанавливает правила для своей интеллектуальной деятельности. Исполнительный стиль характеризуется принятием установленных извне норм и работой в рамках этих норм. Оценочный стиль характеризует критическое мышление, которое направлено на оценку и сравнение различных норм.

Классификация стилей, предлагаемая Стернбергом, отражает направленность мышления на адаптацию, формирование среды или ее выбор. Это измерение интеллекта является относительно независимым от того, насколько успешно, точно и быстро функционируют информационные процессы субъекта.

Наконец, третий аспект, по Стернбергу, связан со степенью новизны задачи. Рутинные задачи, следующие известным сценариям типа посещения магазина или чистки зубов, не являются адекватными для оценки интеллекта. Также не слишком адекватны и полностью новые ситуации – например, бессмысленно оценивать интеллект пятиклассника, предъявляя ему никогда не виденные прежде дифференциальные уравнения, пишет Стернберг.

Интеллект проявляется в самом чистом виде в двух типах ситуаций. Во-первых, это ситуации, степень новизны которых ставит их на грань доступности решения. Стернберг при этом ссылается на экспериментальные данные, согласно которым для одаренных детей менее эффективными оказываются внешние подсказки при решении творческих задач. «Одаренное мышление», таким образом, в новых ситуациях меньше нуждается во внешних подсказках (Davidson, Sternberg, 1984; Sternberg, Davidson, 1982).

Во-вторых, ситуации, связанные с процессом автоматизации. Интеллект, по Стернбергу, проявляется в высокой скорости формирования навыков. В частности, корреляцию времени реакции с интеллектом он объясняет более успешной выработкой у людей с высоким интеллектом навыка работы с установкой по измерению времени реакции.

Каково же приложение компонентного подхода к проблеме генерального фактора? Стернберг и Гарднер констатируют: «Некоторые исследователи, в том числе и мы сами, использовали технику множественной регрессии, чтобы установить источники вариации в успешности решения задач… Результат, который получился во многих из этих исследований, кажется на первый взгляд очень странным… Общая регрессионная константа часто столь же сильно или даже сильнее коррелировала с результатами тестов интеллекта, чем проанализированные параметры, представляющие различные источники вариации» (Sternberg, Gardner, 1982, с 232).

Другими словами, тесты интеллекта коррелируют не столько с отдельными компонентами процесса переработки информации, сколько с их суммарными показателями. Как это интерпретировать?

С точки зрения Стернберга, среди многочисленных процессов, задействованных в мышлении, существуют такие, которые участвуют в решении очень многих или почти всех задач. Функционирование этих процессов в совокупности и определяет феномен генерального фактора. Другими словами, общий интеллект человека определяется тем, насколько хорошо (т. е. быстро и точно) у него функционирует несколько (сколько именно – не уточняется) различных процессов-компонентов. Эти процессы, однако, не аналогичны первичным способностям Терстона или Гилфорда в том плане, что компоненты Стернберга пронизывают в различных сочетаниях все задачи тестов интеллекта. В этой связи даже при их полной независимости все равно можно ожидать появления общего фактора, определяемого усредненной эффективностью основных компонентов.

Компонентный подход, конечно, является очень серьезным научным направлением, основанным на красивых исследованиях и фундированным солидным статистическим и теоретическим аппаратом. Однако и развиваемый в нем подход к генеральному фактору не лишен проблем.



Поделиться книгой:

На главную
Назад