Контрольная работа: Процедура многомерного шкалирования

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Введение

Многомерное шкалирование начало свое интенсивное развитие в 60-х годах в работах американских ученых Торгерсона, Шепарда, Краскэла. Круг советских специалистов, занимающихся этой проблемой, достаточно узок, и основные их усилия направлены на разработку формализованных методов и вычислительных процедур, реализующих известные модели на ЭВМ. К настоящему времени методы многомерного шкалирования, к сожалению, не получили широкого применения в психометрических исследованиях в нашей стране. Видимо, причинами тому являются малочисленность группы специалистов и отсутствие хороших пакетов программ.

Развитие многомерного шкалирования идет в направлении все большей его формализации. При этом остаются в тени некоторые содержательные вопросы, обсуждение которых могло бы привлечь внимание большого количества пользователей и способствовало бы расширению области применения этих методов. Не уделяется достаточно внимания изучению свойств моделей многомерного шкалирования. Отсутствуют публикации (в доступных американских источниках в том числе), в которых бы анализировался сам механизм шкалирования и рассматривался вопрос о том, каким образом методы многомерного шкалирования позволяют выделить факторы, принимаемые во внимание человеком при сравнении стимулов. Эти вопросы связаны самым непосредственным образом с проблемой содержательной интерпретации формально построенного решения.

Задача многомерного шкалирования в самом общем виде состоит в том, чтобы выявить структуру исследуемого множества стимулов. Под выявлением структуры понимается выделение набора основных факторов, по которым различаются стимулы, и описание каждого из стимулов в терминах этих факторов. Процедура построения структуры опирается на анализ объективной или субъективной информации о близостях между стимулами либо информации о предпочтениях на множестве стимулов. В случае анализа субъективных данных решаются одновременно две задачи. С одной стороны, выявляется объективная структура субъективных данных, с другой -- определяются факторы, влияющие на процесс принятия решения.

1. Каково назначение многомерного шкалирования?

Многомерное шкалирование-- метод анализа и визуализации данных с помощью расположения точек, соответствующих изучаемым (шкалируемым) объектам, в пространстве меньшей размерности чем пространство признаков объектов. Точки размещаются так, чтобы попарные расстояния между ними в новом пространстве как можно меньше отличались от эмпирически измеренных расстояний в пространстве признаков изучаемых объектов. Если элементы матрицы расстояний получены по интервальным шкалам, метод многомерного шкалирования называется метрическим. Когда шкалы являются порядковыми, метод многомерного шкалирования называется неметрическим. Мера различий расстояний в исходном и новом пространстве называется функцией стресса.

Метод многомерного шкалирования по своему замыслу является родственным методу факторного анализа, исторически он может рассматриваться даже как ответвление метода факторного анализа, хотя и основан на несколько иных теоретических предположениях. Так же как и в случае факторного анализа, задача многомерного шкалирования состоит в уменьшении размерности и, следовательно, неопределенности собранных экспериментальных данных. На основе использования различных геометрических моделей этот метод позволяет визуализировать те отношения, которые существуют между оцениваемыми объектами.

Общее назначение метода многомерного шкалирования: он применяется для анализа матриц данных, отражающих те или иные связи между элементами. Эти матрицы могут быть симметричными или асимметричными, квадратными или прямоугольными. Сами данные могут отражать как результаты субъективного оценивания сходства или различия, так и представлять собой различные статистические меры сходства, такие как коэффициенты корреляции или ковариации. Конечной целью такого анализа является представление избыточного объема данных в более компактном и наглядном виде. Это облегчает интерпретацию тех связей, которые существуют между оцениваемыми объектами.

Пример: Е. Смит, Е. Шобен и Л. Рипс, исследуя фактор семантической связности, который они рассматривали в качестве важного фактора, описывающего способы хранения знаний в семантической памяти, предлагали испытуемым оценивать близость но значению различных примеров категории "птица". Оценка проводилась попарно. Таким образом была получена квадратная матрица, содержавшая оценки семантической связности для всех пар птиц, которые предъявлялись испытуемым. Подвергнув далее эти оценки процедуре многомерного шкалирования, Е. Смит и др. сумели представить полученные результаты в виде двумерной геометрической модели. Одним измерением в этом модели оказался фактор размера птицы, вторым - степень ее одомашнивания. Таким образом, исследователи выявили значимые базовые параметры, по которым испытуемые могут сравнивать различные примеры заданной семантической категории.

2. Каким образом должны быть представлены исходные данные для проведения многомерного шкалирования?

Метод многомерное шкалирование можно рассматривать как альтернативу факторному анализу, в котором достигается сокращение числа переменных, путем выделения латентных (непосредственно не наблюдаемых) факторов, объясняющих связи между наблюдаемыми переменными. Цель многомерного шкалирования - поиск и интерпретация латентных переменных, дающих возможность пользователю объяснить сходства между объектами, заданными точками в исходном пространстве признаков. Показателями сходства объектов на практике могут быть расстояния или степени связи между ними. В факторном анализе сходства между переменными выражаются с помощью матрицы коэффициентов корреляций. В многомерном шкалировании в качестве исходных данных можно использовать произвольный тип матрицы сходства объектов: расстояния, корреляции и т.д. Несмотря на то, что имеется много сходства в характере исследуемых вопросов, методы многомерное шкалирование и факторный анализ имеют ряд существенных отличий. Так, факторный анализ требует, чтобы исследуемые данные подчинялись многомерному нормальному распределению, а зависимости были линейными. Многомерное шкалирование не накладывает таких ограничений, оно может быть применимо, если задана матрица попарных сходств объектов. В терминах различий получаемых результатов факторный анализ стремится извлечь больше факторов - латентных переменных по сравнению с многомерным шкалированием. Поэтому многомерное шкалирование часто приводит к проще интерпретируемым решениям. Однако более существенно то, что метод многомерное шкалирование можно применять к любым типам расстояний или сходств, в то время как факторный анализ требует, чтобы в качестве исходных данных была использована корреляционная матрица переменных или по файлу исходных данных сначала была вычислена матрица корреляций. Основное предположение многомерного шкалирования заключается в том, что существует некоторое метрическое пространство существенных базовых характеристик, которые неявно и послужили основой для полученных эмпирических данных о близости между парами объектов. Следовательно, объекты можно представить как точки в этом пространстве. Предполагают также, что более близким (по исходной матрице) объектам соответствуют меньшие расстояния в пространстве базовых характеристик. Поэтому, многомерное шкалирование - это совокупность методов анализа эмпирических данных о близости объектов, с помощью которых определяется размерность пространства существенных для данной содержательной задачи характеристик измеряемых объектов и конструируется конфигурация точек (объектов) в этом пространстве. Это пространство («многомерная шкала») аналогично обычно используемым шкалам в том смысле, что значениям существенных характеристик измеряемых объектов соответствуют определенные позиции на осях пространства.

Логику многомерного шкалирования можно проиллюстрировать на следующем простом примере. Предположим, что имеется матрица попарных расстояний (т.е. сходства некоторых признаков) между некоторыми городами. Анализируя матрицу, надо расположить точки с координатами городов в двумерном пространстве (на плоскости), максимально сохранив реальные расстояния между ними. Полученное размещение точек на плоскости впоследствии можно использовать в качестве приближенной географической карты. В общем случае многомерное шкалирование позволяет таким образом расположить объекты (города в нашем примере) в пространстве некоторой небольшой размерности (в данном случае она равна двум), чтобы достаточно адекватно воспроизвести наблюдаемые расстояния между ними. В результате можно измерить эти расстояния в терминах найденных латентных переменных. Так, в нашем примере можно объяснить расстояния в терминах пары географических координат Север/Юг и Восток/Запад.

3. Что такое мера различий объектов? Какие способы оценки различий вы знаете?

Меры различия, типы моделей

Многомерное шкалирование предлагает геометрическое представление стимулов в виде точек координатного пространства минимально возможной размерности.

Существует два типа моделей: дистанционные и векторные. В дистанционных моделях исходные различия должны быть приближены расстояниями, в большинстве случаев используют привычное евклидово расстояние:

В векторных моделях меры близостей или связей -- величины, обратные различиям, аппроксимируются скалярными произведениями векторов, соединяющих точки, соответствующие стимулам, с началом координат:

При построении конфигурации стимулов используется аппарат линейной или нелинейной оптимизации. Почему же такая простая модель и формальные методы поиска экстремума позволяют получить содержательно интерпретируемое решение? Почему оси, построенные формальным образом, приобретают смысл хорошо интерпретируемых факторов?

Векторная модель. Обсудим геометрические свойства векторной модели. Начнем со шкалирования бинарных данных, т. е. высказываний типа «похожи--непохожи». Допустим, что мы имеем матрицу, содержащую информацию о том, что все стимулы не похожи друг на друга. Как можно представить геометрически такую структуру? Стимулы должны располагаться либо на ортогональных прямых, либо в начале координат. В этом случае все скалярные произведения будут нулями.

Перейдем к ситуации наличия нескольких групп похожих между собой стимулов. Стимулы из одной группы должны представляться одной точкой; точки, соответствующие разным группам, должны принадлежать ортогональным прямым. Изолированные стимулы могут быть помещены в начало координат. Тогда скалярные произведения между похожими стимулами будут большими, а скалярные произведения между непохожими стимулами будут нулями.

Ориентируем оси координатного пространства вдоль ортогональных направлений. Тогда каждая ось будет связана с группой похожих между собой стимулов, и фактор, ей соответствующий, будет лежать в основе сходства этих стимулов. Разным группам будут соответствовать ортогональные осп и, следовательно, независимые факторы. Исключение составляют изолированные стимулы, которые могут попасть в начало координат. Чем больше стимулов объединяются в группы, тем меньше измерений необходимо.

Пусть теперь мы располагаем дискретными или непрерывными данными, т. с. получаем оценки о сходствах или связях либо в виде баллов, либо в виде чисел. Допустим, что в этом случае матрица имеет квазиблочпую структуру. Тогда по ней можно разбить все множество на несколько групп так, что стимулы внутри каждой группы будут сильно связаны, а стимулы из разных групп--слабо связаны между собой. Характер отображения будет примерно таким же, как в случае непересекающихся бинарных данных. Однако стимулы из одной группы не будут представляться одной точкой, а будут сконцентрированы в некоторой ее окрестности. Такая структура, вообще говоря, не будет совпадать с ортогональной системой координат, поскольку точки могут лежать несколько в стороне от осей. Однако если связи в группах достаточно сильны, а связи между группами достаточно слабы, то и в этом случае каждое измерение будет связано с одной группой и фактор, ему соответствующий, будет лежать в основе сходства стимулов из этой группы.

На практике сильно структуризованные данные, характеризующие непересекающиеся группы стимулов, встречаются редко, обычно группы имеют пересечения. Имеются стимулы, похожие одновременно на стимулы из двух или нескольких групп. Естественно, что они не попадут на оси, а будут располагаться в пространстве между ними. Характер распределения будет зависеть от матрицы исходных данных. Картина будет тем контрастнее, чем более структуризованы данные, т. е. сильнее внутригрупповые связи и слабее -- межгрупповые. Оси будут определяться группами стимулов, которые очень похожи между собой и минимально похожи на стимулы из других групп. Такие стимулы характеризуются большими значениями координат по соответствующим осям. Эти группы стимулов лежат в основе всей структуры. Остальные стимулы, похожие одновременно на стимулы из нескольких групп, должны занять промежуточные положения между этими группами.

Поскольку исходная матрица не является матрицей точных расстояний или скалярных произведений, то все стимулы не могут быть отображены в пространстве, определяемом ортогональными осями, соответствующими изолированным группам. Для их размещения потребуются дополнительные размерности. Если первый тип размерностей определяется большими межгрупповыми различиями и каждая размерность характеризуется значительным разбросом стимулов, то второй тип размерностей возникает за счет того, что субъективные различия между стимулами не могут быть отображены точным образом в пространстве небольшого числа размерностей. Разброс стимулов вдоль размерностей второго типа невелик и во многих случаях им можно пренебречь.

Центрированная векторная модель. Другой вариант векторной модели -- модель центрированных скалярных произведений. На ней основан широко распространенный метод Торгерсона, положивший начало теории многомерного шкалирования. В этой модели полагается, что начало координат помещено в центре тяжести структуры. Исходные близости или связи должны быть аппроксимированы скалярными произведениями векторов, соединяющих точки, соответствующие стимулам, с центром тяжести конфигурации. Матрица исходных близостей предварительно центрируется, так что наряду с положительными числами в ней появляются и отрицательные. Если пронормировать приведенные данные: |ajk 1, то их можно рассматривать как коэффициенты корреляции.|

Решение, порождаемое моделью центрированных скалярных произведений, отличается от решения, получаемого по обычной векторной модели. В исходной матрице близости (связи) между стимулами могут принимать положительное, нулевое и отрицательное значения; будем приближать их скалярными произведениями. Естественно, что стимулы, характеризующиеся сильными положительными связями (большими мерами близостей), должны концентрироваться в окрестности одной точки, отстоящей на значительном расстоянии от начала координат. Тогда скалярные произведения между соответствующими векторами будут большими. Стимулы, характеризующиеся отрицательными связями, должны находиться по разные стороны от начала координат. Скалярные произведения между ними будут принимать максимальные отрицательные значения, если они будут принадлежать разным концам одной прямой, проходящей через начало координат. Пары стимулов с нулевыми связями должны принадлежать ортогональным прямым; в таком случае скалярные произведения между ними будут нулями. Изолированные стимулы, имеющие нулевые связи со всеми остальными, могут попадать в начало координат.

Большие положительные, отрицательные, а также нулевые связи будут определять основную структуру всей системы. Стимулы, характеризующиеся умеренными связями, будут располагаться между этими основными группами стимулов. Чем слабее связи, тем ближе стимулы к началу координат. Поскольку исходная матрица близостей или связей не является точной матрицей скалярных произведений, то все стимулы не могут быть отображены в пространстве небольшой размерности. Как и в случае предыдущей модели, для компенсации шума в данных потребуются дополнительные размерности, разброс в направлении которых незначителен по сравнению с основными размерностями и им можно пренебречь. Таким образом, модель центрированных скалярных произведений позволяет отобразить структуру системы в координатном пространстве, натянутом на небольшое множество ортогональных прямых. Повернем первоначальные оси пространства и совместим их с этими прямыми. Тогда каждую ось можно интерпретировать как биполярный фактор: справа будут располагаться стимулы, характеризующиеся положительными значениями этого фактора, слева -- отрицательными, а в центре -- нулевыми. Ортогональные оси будут соответствовать стимулам или группам стимулов, не связанных между собой, поэтому они могут интерпретироваться как независимые факторы. Решение, порождаемое моделью, будет иметь смысловое содержание.