Основною метою множинної регресії є побудова моделі з великою кількістю факторів та визначення при цьому впливу кожного з факторів окремо на результат, а також визначення сукупного впливу факторів на модельований показник.

Специфікація моделі множинної регресії включає відбір чинника і вибір виду математичної функції (вибір виду рівняння регресії). Фактори, що включаються до множинної регресії, повинні бути кількісно виміряні і не повинні бути інтеркорельовані і тим більше перебувати в точному функціональному зв'язку (тобто повинні меншою мірою впливати один на одного, а більшою мірою на результативну ознаку).

фактори, що включаються в множинну регресію, повинні пояснювати варіацію незалежної змінної. Наприклад, якщо будується модель з набором факторів, то для неї знаходиться значення показника детермінації, який фіксує частку поясненої варіації результативної ознаки за рахунок факторів.

Вплив інших неврахованих факторів у моделі оцінюється як відповідної залишкової дисперсії.

При включенні до моделі додаткового фактора значення показника детермінації має зростати, а значення залишкової дисперсії має зменшитися. Якщо цього не відбувається, то додатковий фактор не покращує модель і практично є зайвим, причому введення такого фактора може призвести до статистичної незначущості параметрів регресії за критерієм Стьюдента.

Відбір факторів для множинної регресії здійснюється на дві стадії:

1. Підбираються чинники, з сутності проблеми.

2. На основі матриці показників кореляції визначають статистики параметрів регресії.

Коефіцієнти кореляції між пояснювальними змінними , які називають коефіцієнтами інтеркореляції, дозволяють виключити з моделі дублюючі чинники.

Дві змінні і називають явно колінеарними, якщо коефіцієнт кореляції.

Якщо змінні явно колінеарні, вони перебувають у сильної лінійної залежності.



За наявності явно колінеарних змінних перевага надається не фактору тісно пов'язаному з результатом, а фактору, який при цьому має найменшу тісноту зв'язку з іншими факторами.

За величиною парних коефіцієнтів кореляції виявляється лише явна коленіарність факторів.

З використанням множинної регресії може виникнути мультиколеніарність фактів, тобто. більш ніж два фактори пов'язані між собою лінійною залежністю. У таких випадках менш надійним стає МНК при оцінці окремих факторів, результатом чого стає утруднення інтерпретації параметрів множинної регресії як характеристик дії фактора у чистому вигляді. Параметри лінійної регресії втрачають економічний сенс, оцінки параметрів ненадійні, виникають великі стандартні помилки, які у своїй можуть змінюватися із зміною обсягу спостережень, тобто. модель стає непридатною для аналізу та прогнозування економічної ситуації. Для оцінки мультиколеніарності фактора використовують такі методи:

1. Визначення матриці парних коефіцієнтів кореляції між факторами, наприклад, якщо задана лінійна модель множинної регресії, то визначник матриці парних коефіцієнтів набуде вигляду:

Якщо значення даного визначника дорівнює 1

,

то фактори є неколінеарними між собою.

Якщо між факторами існує повна лінійна залежність, то всі коефіцієнти парної кореляції дорівнюють 1, внаслідок чого

.

2. Метод випробування гіпотези про незалежність змінних. У цьому випадку нульова гіпотеза доведено, що величина має наближений розподіл із числом ступенів свободи.

Якщо , То нульова гіпотеза відхиляється.

Визначаючи і порівнюючи між собою коефіцієнти множинної детермінації фактора, використовуючи як залежну змінну послідовно кожну з факторів можна визначити чинники, відповідальні за мультиколеніарність, тобто. фактор з найбільшим значенням величини.

Існують такі способи подолання сильної міжфакторної кореляції:

1) виключення з моделі одного або декількох даних;

2) перетворення чинників зменшення кореляції;

3) поєднання рівняння регресії, які відображатимуть як чинники, а й їх взаємодія;

4) перехід рівняння наведеної форми та ін.

При побудові рівняння множинної регресії однією з найважливіших етапів є добір чинників, які в модель. Різні підходи до відбору факторів на основі показників кореляції до різних методів, серед яких найбільш застосовні:

1) Метод виключення - проводиться відсів даних;

2) Метод включення – запроваджують додатковий чинник;

3) Кроковий регресійний аналіз – виключають раніше запроваджений чинник.

При відборі факторів застосовують таке правило: число факторів, що включаються зазвичай у 6-7 разів менше обсягу сукупності, за якою будується модель.

Параметр не підлягає економічній інтерпретації. У статечної моделі нелінійне рівняння множинної регресії коефіцієнти , , ..., є коефіцієнтами еластичності, які показують наскільки, в середньому, зміниться результат при зміні відповідного фактора на 1% при незмінному вплив інших факторів.

Суть регресійного аналізу: побудова математичної моделі та визначення її статистичної надійності

Вид множинної лінійної моделі регресійного аналізу: Y = b 0 + b 1 x i1 + ... + b j x ij + ... + b k x ik + e i де e i- випадкові помилки спостереження, незалежні між собою, мають нульову середню та дисперсію s.

Призначення множинної регресії: аналіз зв'язку між декількома незалежними змінними та залежною змінною.

Економічний зміст параметрів множинної регресії
Коефіцієнт множинної регресії b jпоказує, яку величину у середньому зміниться результативний ознака Y, якщо змінну X jзбільшити на одиницю виміру, т. е. є нормативним коефіцієнтом.

Матричний запис множинної лінійної моделі регресійного аналізу: Y = Xb + e де Y (n x 1)значень результативної ознаки ( y 1 , y 2 ,..., y n);
X- матриця розмірності [ n x (k+1)] спостережуваних значень аргументів;
b- Вектор - стовпець розмірності [ (k+1) x 1] невідомих, які підлягають оцінці параметрів (коефіцієнтів регресії) моделі;
e- випадковий вектор - стовпець розмірності (n x 1)помилок спостережень (залишків).

Завдання регресійного аналізу
Основне завдання регресійного аналізу полягає у знаходженні за вибіркою обсягом nоцінки невідомих коефіцієнтів регресії b 0 , b 1 ,..., b k. Завдання регресійного аналізу полягають у тому, щоб за наявними статистичними даними для змінних X iі Y:

  • отримати найкращі оцінки невідомих параметрів b 0 , b 1 ,..., b k;
  • перевірити статистичні гіпотези щодо параметрів моделі;
  • перевірити, чи добре модель узгоджується зі статистичними даними (адекватність моделі даним спостережень).

Побудова моделей множинної регресії складається з наступних етапів:

  1. вибір форми зв'язку (рівняння регресії);
  2. визначення параметрів вибраного рівняння;
  3. аналіз якості рівняння та перевірка адекватності рівняння емпіричним даним, удосконалення рівняння.
  • Множинна регресія з однією змінною
  • Множинна регресія з трьома змінними

Інструкція. Вкажіть кількість даних (кількість рядків), кількість змінних x натисніть Далі.

Приклад вирішення знаходження моделі множинної регресії

Множинна регресія з двома змінними

Модель множинної регресіївиду Y = b 0 + b 1 X 1 + b 2 X 2;
1) Знайти невідомі b 0 , b 1 ,b 2 можна, розв'яжемо систему трилінійних рівнянь з трьома невідомими b 0 ,b 1 ,b 2:

Для вирішення системи можете скористатися
2) Або використавши формули


Для цього будуємо таблицю виду:

Y x 1 x 2 (y-y ср) 2 (x 1 -x 1ср) 2 (x 2 -x 2ср) 2 (y-y ср)(x 1 -x 1ср) (y-y ср)(x 2 -x 2ср) (x 1 -x 1ср)(x 2 -x 2ср)

Вибіркові дисперсії емпіричних коефіцієнтів множинної регресії можна визначити так:

Тут z" jj - j-тий діагональний елемент матриці Z -1 = (X T X) -1 .

При цьому:

де m - кількість пояснюючих змінних моделей.
Зокрема, для рівняння множинної регресії Y = b 0 + b 1 X 1 + b 2 X 2 з двома змінними, що пояснюють, використовуються наступні формули:


Або

або
,,.
Тут r 12 - вибірковий коефіцієнт кореляції між пояснювальними змінними X 1 і X 2; Sb j - стандартна помилка коефіцієнта регресії; S – стандартна помилка множинної регресії (незміщена оцінка).
За аналогією з парною регресією після визначення точкових оцінок bj коефіцієнтів j (j=1,2,…,m) теоретичного рівняння множинної регресії можуть бути розраховані інтервальні оцінки зазначених коефіцієнтів.

Довірчий інтервал, що накриває з надійністю (1-α) невідоме значення параметра j, визначається як

Множинна регресія в Excel

Щоб знайти параметри множинної регресії засобами Excel, використовується функція Лінейн (Y; X; 0; 1),
де Y - масив для значень Y
де X - масив для значень X (вказується як єдиний масив для всіх значень Х i)

Перевірка статистичної значущості коефіцієнтів рівняння множинної регресії

Як і у випадку множинної регресії, статистична значимість коефіцієнтів множинної регресії з m пояснювальними змінними перевіряється на основі t-статистики:

що має в даному випадку розподіл Стьюдента з числом ступенів свободи v = n-m-1. При необхідному рівні значимості значення t-статистики, що спостерігається, порівнюється з критичною точною розподілу Стьюдента.
Якщо , то статистична значущість відповідного коефіцієнта множинної регресії підтверджується. Це означає, що фактор Xj лінійно пов'язаний із залежною змінною Y. Якщо ж встановлено факт незначущості коефіцієнта b j , то рекомендується виключити з рівняння змінну Xj. Це не спричинить суттєвої втрати якості моделі, але зробить її більш конкретною.

Для цієї мети, як і у випадку множинної регресії, використовується коефіцієнт детермінації R 2:

Справедливе співвідношення 0<=R2<=1. Чем ближе этот коэффициент к единице, тем больше уравнение множественной регрессии объясняет поведение Y.
Для множинної регресіїКоефіцієнт детермінації є незменшною функцією числа пояснюючих змінних. Додавання нової пояснюючої змінної ніколи не зменшує значення R 2 так як кожна наступна змінна може лише доповнити, але ніяк не скоротити інформацію, що пояснює поведінку залежної змінної.

Співвідношення може бути представлене в наступному вигляді:

для m>1. Зі зростанням значення m


Показники F і R2 дорівнюють або не дорівнює нулю одночасно. Якщо F=0, то R 2 =0, отже, величина Y лінійно залежить від X1,X2,…,Xm..Расчетное значення F порівнюється з критичним Fкр. Fкр, виходячи з необхідного рівня значимості і чисел ступенів свободи v1 = m і v2 = n - m - 1, визначається на основі розподілу Фішера. Якщо F>Fкр, то R2 статистично значущий.

Перевірка здійсненності передумов МНК множинної регресії. Статистика Дарбіна-Уотсона для множинної регресії

Статистична значимість коефіцієнтів множинної регресії та близьке до одиниці значення коефіцієнта детермінації R 2 не гарантують високу якість рівняння множинної регресії. Тому наступним етапом перевірки якості рівняння множинної регресії є перевірка здійсненності передумов МНК. Причини та наслідки нездійсненності цих передумов, методи коригування регресійних моделей будуть розглянуті в наступних розділах. У цьому параграфі розглянемо популярну в регресійному аналізі статистику Дарбіна-Уотсона.
При статистичному аналізі рівняння регресії на початковому етапі часто перевіряють здійсненність однієї причини: умови статистичної незалежності відхилень між собою.

При цьому перевіряється некорельованість сусідніх величин e i, i = 1,2, ... n..
Для аналізу корелюваності відхилень використовують статистику Дарбіна-Уотсона:

Критичні значення d 1і d 2визначаються з урахуванням спеціальних таблиць для необхідного рівня значимості α , числа спостережень nта кількості пояснюючих змінних m.

Приватні коефіцієнти кореляції при множинній регресії

Приватні коефіцієнти (або індекси) кореляції, що вимірюють вплив на фактор х i при незмінному рівні інших факторів визначаються за стандартною формулою лінійного коефіцієнта кореляції, тобто. послідовно беруться пари yx 1 ,yx 2 ,... , x 1 x 2 , x 1 x 3 і так далі і для кожної пари знаходиться коефіцієнт кореляції
Обчислення в MS Excel. Матрицю парних коефіцієнтів кореляції змінних можна розрахувати за допомогою інструмента аналізу даних Кореляція. Для цього:
1) Виконати команду Сервіс / Аналіз даних / Кореляція.
2) Вказати діапазон даних;

Перевірка загальної якості рівняння множинної регресії

Для цієї мети, як і у випадку множинної регресії, використовується коефіцієнт детермінації R 2:

Справедливе співвідношення 0 < =R 2 < = 1 . Чим ближче цей коефіцієнт до одиниці, тим більше рівняння множинної регресії пояснює поведінку Y.
Для множинної регресіїкоефіцієнт детермінації є незнищувальною функцією числа пояснюючих змінних. Додавання нової пояснюючої змінної ніколи не зменшує значення R 2, Так як кожна наступна змінна може лише доповнити, але ніяк не скоротити інформацію, що пояснює поведінку залежної змінної.
Іноді при розрахунку коефіцієнта детермінації для отримання незміщених оцінок у чисельнику та знаменнику віднімається з одиниці дробу робиться поправка на число ступенів свободи, тобто. вводиться так званий скоригований (виправлений) коефіцієнт детермінації:

Співвідношення може бути представлене у такому вигляді:

для m>1. Зі зростанням значення m скоригований коефіцієнт детермінаціїзростає повільніше, ніж звичайний. Очевидно, що тільки при R 2 = 1. може набувати негативних значень.
Доведено, що збільшується при додаванні нової пояснюючої змінної тоді і тільки тоді, коли t-статистика для цієї змінної модуля більше одиниці. Тому додавання до моделі нових пояснюючих змінних здійснюється доти, доки зростає скоригований коефіцієнт детермінації.
Рекомендується після перевірки загальної якості рівняння регресії здійснити аналіз його статистичної значущості. Для цього використовується F-статистика:
Показники Fі R 2рівні чи не дорівнює нулю одночасно. Якщо F=0, то R 2 =0, отже, величина Yлінійно не залежить від X 1 ,X 2 ,…,X m.Розрахункове значення Fпорівнюється з критичним Fкр. Fкрвиходячи з необхідного рівня значущості α та чисел ступенів свободи v 1 = mі v 2 = n - m - 1визначається на основі розподілу Фішера. Якщо F > Fкр, то R 2статистично значущий.

Модель множинної регресії

Дана модель множинної регресії:

Номер підприємства

Номер підприємства

Постановка задачі

Потрібно:

1. Побудувати лінійну модель множинної регресії. Записати стандартизоване рівняння множинної регресії. На основі стандартизованих коефіцієнтів регресії та середніх коефіцієнтів еластичності ранжувати фактори за ступенем їхнього впливу на результат.

2. Знайти коефіцієнти парної, приватної та множинної кореляції. Проаналізувати їх.

3. Знайти скоригований коефіцієнт множинної детермінації. Порівняти його з некоригованим (загальним) коефіцієнтом детермінації.

4. За допомогою - критерію Фішера оцінити статистичну надійність рівняння регресії та коефіцієнта детермінації.

5. За допомогою приватних критеріїв Фішера оцінити доцільність включення в рівняння множинної регресії фактора після і після.

6. Скласти рівняння лінійної парної регресії, залишивши лише один чинник.

Процес побудови моделі множинної регресії

Знайдемо середні квадратичні відхилення ознак:

1. Обчислення параметрів лінійного рівняння множинної регресії.

Для знаходження параметрів лінійного рівняння множинної регресії

необхідно скористатися готовими формулами:

Розрахуємо спочатку парні коефіцієнти кореляції:

Таким чином, отримали наступне рівняння множинної регресії:

Коефіцієнти та стандартизованого рівняння регресії знаходяться за формулами:

Тобто. рівняння виглядатиме так:

Так як стандартизовані коефіцієнти регресії можна порівнювати між собою, то можна сказати, що введення в дію нових основних фондів більш впливає на вироблення продукції, ніж питома вага робітників високої кваліфікації.

Порівнювати вплив факторів на результат можна також за допомогою середніх коефіцієнтів еластичності:

Обчислюємо:

Тобто. збільшення лише основних фондів (від свого середнього значення) або лише частки робітників високої кваліфікації на 1% збільшує в середньому вироблення продукції на 0,627% або 0,170% відповідно.

Таким чином, підтверджується більший вплив на результат фактора, ніж фактор.

2. Коефіцієнти парної кореляції ми знайшли:

Вони вказують на дуже сильний зв'язок кожного фактора з результатом, а також високу міжфакторну залежність (фактори і колінеарні, т.к.). За такої сильної міжфакторної залежності рекомендується один із факторів виключити з розгляду.

Приватні коефіцієнти кореляції характеризують тісноту зв'язку між результатом та відповідним фактором при елімінуванні (усуненні впливу) інших факторів, включених до рівняння регресії.

При двох факторах приватні коефіцієнти кореляції розраховуються так:

Якщо порівняти коефіцієнти парної та приватної кореляції, то можна побачити, що через високу міжфакторну залежність коефіцієнти парної кореляції дають завищені оцінки тісноти зв'язку. Саме з цієї причини рекомендується за наявності сильної колінеарності (взаємозв'язку) факторів виключати з дослідження той фактор, у якого тіснота парної залежності менша, ніж тіснота міжфакторного зв'язку.

Коефіцієнт множинної кореляції визначити за допомогою наступних формул:


Коефіцієнт множинної кореляції свідчить про дуже сильну зв'язок всього набору чинників з результатом.

3. Нескоригований коефіцієнт множинної детермінації оцінює частку варіації результату за рахунок поданих у рівнянні факторів загальної варіації результату. Тут ця частка становить 78,7% і вказує на вельми високий ступінь обумовленості варіації результату варіацією факторів, іншими словами - дуже тісний зв'язок факторів з результатом.

Коригований коефіцієнт множинної детермінації

визначає тісноту зв'язку з урахуванням ступенів свободи загальної та залишкової дисперсій. Він дає таку оцінку тісноти зв'язку, яка не залежить від числа факторів і тому може порівнюватись за різними моделями з різним числом факторів. Обидва коефіцієнти вказують на дуже високу (понад 96%) детермінованість результату моделі факторами і.

4. Оцінку надійності рівняння регресії загалом і показника тісноти зв'язку дає критерій Фішера:

У нашому випадку фактичне значення - критерій Фішера:

Набули, що (при), тобто. можливість випадково отримати таке значення -критерію вбирається у допустимий рівень значимості. Отже, отримане значення невипадково, воно сформувалося під впливом істотних чинників, тобто. підтверджується статистична значущість всього рівняння та показника тісноти зв'язку.

6. За допомогою приватних критеріїв Фішера оцінимо доцільність включення в рівняння множинної регресії фактора після і фактора після за допомогою формул:

Знайдемо в.

Здобули, що. Отже, включення до моделі фактора після того, як у модель включено фактор статистично недоцільно: приріст факторної дисперсії за рахунок додаткової ознаки виявляється незначним, несуттєвим; фактор включати рівняння після чинника годі було.

Якщо змінити початковий порядок включення факторів у модель і розглянути варіант включення після, то результат розрахунку приватного -критерію буде іншим. , тобто. ймовірність його випадкового формування менша від прийнятого стандарту. Отже, значення приватного критерію для додатково включеного фактора не випадково, є статистично значущим, надійним, достовірним: приріст факторної дисперсії за рахунок додаткового фактора є суттєвим. Фактор повинен бути присутнім у рівнянні, у тому числі у варіанті, коли він додатково включається після фактора.

Загальний висновок полягає в тому, що множинна модель з факторами і містить неінформативний фактор. Якщо виключити чинник, можна обмежитися рівнянням парної регресії:

Нехай заданий певний стохастичний об'єкт, вхідна та вихідна координата якого Х та Y є випадковими величинами.

На Y впливає як вхідна координата Х, а й випадкова перешкода Z (нестабільність режиму роботи об'єкта, стохастичні впливу середовища, похибки змін Y тощо.). Тому не можна говорити про функціональну залежність Y від Х. У подібних випадках слід говорити про наявність стохастичного зв'язку між змінними Х та Y об'єктів статики.

Випадкові величини Х та Y є залежними, якщо закон розподілу ймовірностей однієї з них залежить від значення іншої.

- умовно-інтегральний закон розподілу ймовірностей;

- Умовна щільність розподілу ймовірностей;

Припустимо, можна встановити, що тоді поведінка складної величини Y буде повністю характеризуватись умовною щільністю розподілу ймовірностей .

Позначимо умовні числові характеристики Y:

- математичне очікування;

Дисперсія;

Не залежить від х, а параметри функції щільності і від того, яке значення х прийме величина Х. Залежність х називається регресійної.

- регресійна залежність показує, як змінюється середнє значення Y при зміні Х. Якщо з'єднати плавними лініями точки, то отримаємо лінію регресії. Ця лінія є статичною характеристикою об'єкта.

Рівнянням регресії називають функцію f(x), що описує лінію регресії. Рівняння регресії класифікують на лінійні та нелінійні. При побудові регресійної моделі об'єкта широко застосовується пасивний метод ідентифікації.

Цей метод застосовують щодо статики об'єкта, рівнянь перешкод, і навіть у випадках, коли неприпустимі величини вихідних обурень на вході об'єкта. Пасивний метод ідентифікації ґрунтується на отриманні статичної інформації про об'єкт за даними його нормальної експлуатації. Потім реалізація вхідних x і вихідних y величин обробляються т.ч., щоб визначити регресивну модель.



де - вектор коефіцієнтів моделі.

Визначення рівняння регресії складається з 2 етапів:

1. вибір типу рівняння регресії– здійснюється або шляхом емпіричного вибору типу рівняння регресії на вигляд кореляційного поля між вхідними та вихідними величинами, або шляхом теоретичного вивчення закономірності фізичного процесу, відображенням якого є стохастичний зв'язок між цими величинами. Іноді обидва підходи використовують у поєднанні друг з одним.

2. розрахунок коефіцієнтів рівняння регресії- Найчастіше виконується методом найменших квадратів.

Слід зазначити, що статичний пасивний метод має ряд істотних недоліків у порівнянні з активним методом:

1.одержання моделі об'єкта справедливе лише межах використовуваного експериментального статичного матеріалу.

2.Трудно розділити ефекти від кореляції частини вхідних величин багатовимірного об'єкта.

3. індивідуальні коефіцієнти регресії не маю будь-якого фізичного сенсу.

4.не витягується інформація про помилку досвіду.

5. потрібно отримати великий обсяг експериментальних даних і робити трудомісткі обчислення.

Зазначені недоліки значною мірою знижують цінність моделі, отриманої пасивним методом. До цього методу вдаються лише у випадках, коли інші методи неможливо знайти використані.

Попередній аналіз експериментального статичного матеріалу становить основне завдання кореляційного аналізу під час ідентифікації стохастичного об'єкта. При цьому суть кореляційного аналізузводиться до оцінки сили стохастичного зв'язку між випадковими величинами Х і Y і встановлення виду залежності між ними у вигляді рівняння регресії. Щоб попередньо визначити наявність характерного зв'язку між Х та Y наносять екстремальні точки і . На графіці будують кореляційне поле.


а-сильнонегативна кореляція

б-сильнопозитивна кореляція

в-слабопозитивна кореляція

г, д-відсутність кореляції

По тісноті групування точок навколо прямої можна будувати висновки про кореляційної зв'язку.

Кореляційне поле характеризує вид зв'язок між Х і Y, тобто. наявність лінійної та нелінійної залежності:

Існує 3 види кореляції:

1) лінійна;

2) нелінійна;

3) множина;

При лінійної кореляціїлінійна регресія апраксимується рівнянням прямої, при нелінійною- Рівнянням кривої. Множинна кореляціявизначає зв'язок між багатьма величинами і при цьому використовується рівняння множинної регресії. Найбільш поширеною є лінійна кореляція. Поняття кореляції дає можливість будувати висновки про те, наскільки тісно перебувають експериментальні точки на апраскомированной кривою лінії регресії.

Якщо регресія визначає передбачувані співвідношення між змінними, кореляція показує, наскільки добре це співвідношення відбиває реальність.

Завдання стохастичного об'єкта ставиться таким чином: за даними вибірки обсягу n оцінити силу (тісноту) кореляційного зв'язку між Х та Y, знайти рівняння регресії та оцінити припустиму помилку.

Методи множинної лінійної регресії, які ми обговорюємо, можуть бути дуже корисними, але також дуже небезпечними, якщо вони неправильно використовуються або інтерпретуються. Перш ніж приступати до великої задачі із застосуванням методів множинної регресії, має сенс, наскільки це можливо, попередньо спланувати всю роботу стосовно конкретної мети і намітити контрольні заходи, що проводяться під час справи. Таке планування буде предметом цього розділу. Перш за все, ми обговоримо три основні типи математичних моделей, які часто використовуються в науці:

1. Функціональна модель.

2. Модель для керування.

3. Модель для передбачення.

ФУНКЦІОНАЛЬНА МОДЕЛЬ

Якщо в деякому завданні відомий «справжній» функціональний зв'язок між відгуком і предикторами, то експериментатор може зрозуміти і передбачити відгук, та й керувати ним 1. Однак у житті рідко зустрічаються ситуації, коли можна запропонувати подібну модель. Але навіть і в цих випадках функціональні рівняння зазвичай дуже складні, важкі для розуміння та застосування та мають найчастіше нелінійний вигляд. У найскладніших випадках може знадобитися чисельне інтегрування таких рівнянь. Приклади нелінійних моделей згадувалися гол. 5, які побудова буде обговорюватися в гол. 10. Для таких моделей лінійні регресійні методи не застосовні або застосовні лише для апроксимації справжніх моделей в ітеративних процедурах оцінювання.

Модель для керування

Функціональна модель, навіть якщо вона відома повністю, не завжди придатна для керування вихідною змінною (відгуком). Наприклад, у задачі про пару, що використовується на заводі, одна з найважливіших змінних - зовнішня температура, а вона

нічого кращого, можна вибрати лінію поведінки для подальшого експериментування, уточнивши важливі змінні, і, що дуже корисно, відсіяти несуттєві змінні.

Водночас застосування множинної регресії потребує особливої ​​обережності, щоб уникнути нерозуміння та невірних висновків. Організація схеми на вирішення завдань з допомогою методів множинного регресійного аналізу як корисна, а й необхідна.

Мал. 8.1. Блок-схема процедури побудови моделі

Цей розділ – лише план, а будь-яке використання запропонованої чи подібної схеми вимагатиме спеціального «налаштування» на конкретну ситуацію.

Хоча наведений нижче план призначений для розробки передбачуваної математичної моделі, він є досить загальним; ним можна скористатися при побудові як функціональних, і управляючих моделей. Особливу увагу звернемо на завдання із «некерованими даними». Схема ділиться на три стадії - планування, розробку та використання. Блок-схему наведено на рис. 8.1, і надалі її буде детально обговорено.