Дана робота присвячена дослідженню методів візуалізації багатовимірних зображень. В якості методів дослідження було обрано інтелектуальний аналіз даних. Вибір способу проводився з урахуванням конкретних алгоритмів. Так як ІАД може виявити лише присутні в даних закономірності, вихідні дані з одного боку повинні мати достатній обсяг, щоб ці закономірності в них були присутні, а з іншого - бути достатньо компактними, щоб аналіз зайняв прийнятний час. Найчастіше в якості вихідних даних виступають сховища або вітрини даних. Очищені дані зводяться до наборів ознак (або векторах, якщо алгоритм може працювати тільки з векторами фіксованою розмірності), один набір ознак на спостереження. Набір ознак формується відповідно до гіпотезами про те, які ознаки сирих даних мають високу прогнозну силу в розрахунку на необхідну обчислювальну потужність для обробки. Наприклад, чорно-біле зображення особи розміром 100 ? 100 пікселів містить 10 тис. Біт сирих даних. Вони можуть бути перетворені в вектор ознак шляхом виявлення в зображенні очей і рота. В результаті відбувається зменшення обсягу даних з 10 тис. Біт до списку кодів положення, значно зменшуючи обсяг аналізованих даних, а значить і час аналізу. Алгоритми вміють обробляти пропущені дані, що мають прогностичну силу (наприклад, відсутність у клієнта покупок певного виду). В результаті проведеного аналізу ефективності даних методів було встановлено їхні переваги та недоліки, описано особливості практичного застосування. ГРАФІКА, ВІЗУАЛІЗАЦІЯ, БАГАТОВИМІРНІ ДАНІ, БАГАТОВИМІРНЕ ШКАЛЮВАННЯ, БАГАТОВИМІРНА СТАТИСТИКА This work is devoted to methods of visualization of multidimensional images. As a method of study was chosen data mining. Select the method carried out with the specific algorithms. Since the IAD can identify only present in the data patterns output from one side should be sufficient to make these laws they were present, but on the other - to be compact enough to analysis took reasonable time. Often, as the initial data are the repository or data marts. Cleared data are reduced to sets of attributes (or vectors if the algorithm can only work with a fixed dimension vectors), a set of features for observation. The set features formed in accordance with the hypothesis that features raw data are highly predictive power per computing power necessary for processing. For example, black and white facial image size of 100 ? 100 pixels contains 10 thousand. Bit raw data. They can be converted into a feature vector by detecting the image of the eyes and mouth. The result is a decrease of 10 thousand from the data. Bit position in the list of codes, greatly reducing the amount of analyzed data, and therefore the analysis. The algorithms can handle missing data with predictive power (eg, lack of customer purchases a certain kind). The analysis of the effectiveness of these methods were established their advantages and disadvantages, described the features of practical application. GRAPHICS, VISUALIZATION, MULTI-DIMENSIONAL DATA, MULTIDIMENSIONAL SCALING, MULTIVARIATE STATISTICS