Методы и приемы оптимизации информационного поиска. Какие задачи решает оптимизация для поисковых машин

В связи со сложностью и малой изученностью объектов проектирования и критерии качества, и ограничения задачи параметрической оптимизации, как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода e и начальная точка поиска Х 0 .

Затем выбирается величина шага поиска h , и по некоторому правилу происходит получение новых точек Х k +1 по предыдущей точке Х k при k = 0, 1, 2, … Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска отличаются друг от друга процедурой выбора величины шага h (шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точности e . Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

1) все соседние точки поиска хуже, чем предыдущая;

2) çФ(X k +1 )–Ф(X k ) ç £ e , то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность e ;

3) ,i = 1, …, n, то есть все частные производные в новой точке поиска практически равны 0, то есть отличаются от 0 на величину, не превышающую точности e.

Алгоритм получения новой точки поиска Х k +1 по предыдущей точке Х k свой для каждого из методов поиска, но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Х k +1 ) £ Ф(Х k ).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные, а методы второго порядка используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода.

Рассмотрим наиболее распространенные методы поиска , расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо следующее: в методе случайного поиска нельзя заранее предсказать количество вычислений Ф(Х) на одной итерации N , а в методе покоординатного спуска N £ 2×n , где n - количество управляемых параметров X = (x 1 , x 2 .,…, x n ).

Для методов поиска первого порядка справедливы следующие оценки: в градиентном методе с постоянным шагом N = 2 × n ; в градиентном методе с дроблением шага N =2 × n + n 1 , где n 1 – число вычислений Ф(Х), необходимых для проверки условия дробления шага; в методе наискорейшего спуска N = 2 × n + n 2 , где n 2 – число вычислений Ф(Х), необходимых для расчета оптимальной величины шага; а в методе Давидона - Флетчера - Пауэлла (ДФП) N = 2 × n + n 3 , где n 3 – число вычислений Ф(Х), необходимых для расчета матрицы, приближающей матрицу Гессе (для величин n 1 , n 2 , n 3 справедливо соотношение n 1 < n 2 < n 3 ).

И, наконец, в методе второго порядка - методе Ньютона N = 3 × n 2 .

При получении данных оценок предполагается приближенное вычисление производных по формулам конечных разностей, то есть для вычисления производной первого порядка нужно два значения целевой функции Ф(Х), а для второй производной – значения функции в трех точках.

На практике широкое применение нашли метод наискорейшего спуска и метод ДФП, как методы с оптимальным соотношением числа итераций и их трудоемкости.

Начнём рассмотрение методов поиска нулевого порядка. В методе случайного поиска исходными данными являются требуемая точность метода e, начальная точка поиска Х 0 = (x 1 0 , x 2 0 , …, x n 0 ) и величина шага поиска h .

Поиск новых точек производится в случайном направлении, на котором и откладывается заданный шаг h , таким образом получают пробную точку и проверяют, является ли пробная точка лучшей, чем предыдущая точка поиска. Для задачи поиска минимума это означает, что:

(6.19)

Если данное условие выполнено, то пробную точку включают в траекторию поиска (
). В противном случае, пробную точку исключают из рассмотрения и производят выбор нового случайного направления из точки Х k , k = 0, 1, 2, … (рис. 6.3).

Х k +1

Ф(Х)

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Х k +1 , что делает затраты на проведение одной итерации слишком большими.

Рис. 6.3. К методу случайного поиска

Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х) , число итераций в методе случайного поиска очень велико.

В связи с этим метод случайного поиска используется для исследования малоизученных объектов проектирования и для выхода из зоны притяжения локального минимума при поиске глобального экстремума целевой функции.

В отличие от метода случайного поиска, в методе покоординатного спуска в качестве возможных направлений поиска выбирают направления, параллельные осям координат, причем движение возможно как в сторону увеличения, так и уменьшения значения координаты.

Исходными данными в методе покоординатного спуска являются величина шага h и начальная точка поиска Х 0 = (x 1 0 , x 2 . 0 ,…, x n 0 ) . Движение начинаем из точки Х 0 вдоль оси x 1 в сторону увеличения координаты. Получим пробную точку
(x 1 k + h , x 2 k ,…, x n k ), k = 0. Сравним значение функции Ф(Х) с значением функции в предыдущей точке поиска Х k .

Если
(мы предполагаем, что требуется решить задачу минимизацииФ(Х) , то пробную точку включают в траекторию поиска (
) .

В противном случае, пробную точку исключаем из рассмотрения и получаем новую пробную точку, двигаясь вдоль оси x 1 в сторону уменьшения координаты. Получим пробную точку
(x 1 k h , x 2 k ,…, x n k ). Проверяем, если
, то продолжаем движение вдоль осиx 2 в сторону увеличения координаты. Получим пробную точку
(x 1 k + h , x 2 k ,…, x n k ), и т.д.

При построении траектории поиска повторное движение по точкам, вошедшим в траекторию поиска, запрещено.

Получение новых точек в методе покоординатного спуска продолжается до тех пор, пока не будет получена точка Х k , для которой все соседние 2×n пробных точек (по всем направлениям x 1 , x 2 , …, x n в сторону увеличения и уменьшения значения координаты) будут хуже, то есть
. Тогда поиск прекращается и в качестве точки минимума выбирается последняя точка траектории поискаХ*= Х k .

Рассмотрим работу метода покоординатного спуска на примере (рис. 2.21): n = 2, X = (x 1 , x 2 ), Ф(x 1 , x 2 ) min , Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 , h = 1, Х 0 = (0, 1) .

    Начинаем движение вдоль оси x 1 в сторону увеличения

координаты. Получим первую пробную точку

(x 1 0 + h , x 2 0 ) = (1, 1), Ф () = (1-1) 2 + (1-2) 2 = 1,

Ф(Х 0 ) = (0-1) 2 + (1-2) 2 = 2,

Ф() < Ф(Х 0 )  Х 1 = (1, 1).

    x 1 от точки Х 1

=(x 1 1 + h , x 2 1 ) = (2, 1), Ф() = (2-1) 2 + (1-2) 2 = 2,

Ф(Х 1 ) = (1-1) 2 + (1-2) 2 = 1,

то есть Ф() > Ф(Х 1 ) – пробная точка с координатами (2, 1) исключается из рассмотрения, а поиск минимума продолжается из точки Х 1 .

    Продолжаем движение вдоль оси x 2 от точки Х 1 в сторону увеличения координаты. Получим пробную точку

= (x 1 1 , x 2 1 + h ) = (1, 2), Ф() = (1-1) 2 + (2-2) 2 = 0,

Ф(Х 1 ) = (1-1) 2 + (1-2) 2 = 1,

Ф() < Ф(Х 1 ) Х 2 = (1, 2).

    Продолжаем движение вдоль оси x 2 от точки Х 2 в сторону увеличения координаты. Получим пробную точку

= (x 1 2 , x 2 2 + h ) = (1, 3), Ф() = (1-1) 2 + (3-2) 2 = 1,

Ф(Х 2 ) = (1-1) 2 + (2-2) 2 = 0,

то есть Ф() > Ф(Х 2 ) – пробная точка с координатами (1, 3) исключается из рассмотрения, а поиск минимума продолжается из точки Х 2 .

5. Продолжаем движение вдоль оси x 1 от точки Х 2 в сторону увеличения координаты. Получим пробную точку

= (x 1 2 + h , x 2 2 ) = (2, 2), Ф() = (2-1) 2 + (2-2) 2 =1,

Ф(Х 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

то есть Ф(Х ^ ) > Ф(Х 2 ) – пробная точка с координатами (2, 2) исключается из рассмотрения, а поиск минимума продолжается из точки Х 2 .

6. Продолжаем движение вдоль оси x 1 от точки Х 2 в сторону уменьшения координаты. Получим пробную точку

= (x 1 2 - h , x 2 2 ) = (0, 2), Ф() = (0-1) 2 +(2-2) 2 = 1,

Ф(Х 2 ) = (1-1) 2 + (2 - 2) 2 = 0,

то есть Ф() > Ф(Х 2 ) – пробная точка с координатами (0, 2) исключается из рассмотрения, а поиск минимума закончен, так как для точки Х 2 выполнено условие прекращения поиска. Точкой минимума функции Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 является Х * = Х 2 .

В методах поиска первого порядка в качестве направления поиска максимума целевой функции Ф(Х) выбирается вектор градиент целевой функции grad (Ф(Х k )) , для поиска минимума – вектор антиградиент - grad (Ф(Х k )) . При этом используется свойство вектора градиента указывать направление наискорейшего изменения функции:

.

Для изучения методов поиска первого порядка важно также следующее свойство: вектор градиент grad (Ф(Х k )) , направлен по нормали к линии уровня функции Ф(Х) в точке Х k .

Линии уровня – это кривые, на которых функция принимает постоянное значение (Ф(Х) = со nst ).

В данном разделе рассматриваются пять модификаций градиентного метода:

– градиентный метод с постоянным шагом,

– градиентный метод с дроблением шага,

– метод наискорейшего спуска,

– метод Давидона-Флетчера-Пауэлла (ДФП),

– двухуровневый адаптивный метод.

В градиентном методе с постоянным шагом исходными данными являются требуемая точность e , начальная точка поиска Х 0 и шаг поиска h .

Х k+1 = Х k – h × grad Ф (Х k ), k=0,1,2,… (6.20)

Формула (2.58) применяется, если для функции Ф(Х) необходимо найти минимум. Если же задача параметрической оптимизации ставится как задача поиска максимума, то для получения новых точек в градиентном методе с постоянным шагом используется формула:

Х k+1 = Х k + h × grad Ф (Х k ), k = 0, 1, 2, … (6.21)

Каждая из формул (6.20), (6.21) является векторным соотношением, включающим n уравнений. Например, с учетом Х k +1 = (x 1 k +1 , x 2 k +1 ,…, x n k +1 ), Х k =(x 1 k , x 2 k ,…, x n k ) :

(6.22)

или, в скалярном виде,

(6.23)

В общем виде (2.61) можно записать:

(6.24)

В качестве условия прекращения поиска во всех градиентных методах используется, как правило, комбинация двух условий: çФ(X k +1 ) - Ф(X k ) ç £ e или
для всехi =1, …, n .

Рассмотрим пример поиска минимума градиентным методом с постоянным шагом для той же функции, что и в методе покоординатного спуска:

n = 2, X = (x 1 , x 2 ), =0.1,

Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min , h = 0,3, Х 0 = (0, 1).

    Получим точку Х 1 по формуле (2.45):

Ф(X 1 ) = (0.6–1) 2 + (1.6–2) 2 = 0.32, Ф(X 0 ) = (0 –1) 2 + (1–2) 2 = 2.

Ф(X 1 ) - Ф(X 0 ) =1,68 > = 0,1  продолжаем поиск.

    Получим точку Х 2 по формуле (2.45):

Ф(X 2 ) = (0.84–1) 2 + (1.84–2) 2 = 0.05,

Ф(X 1 ) = (0,6 –1) 2 + (1,6–2) 2 = 0,32.

Ф(X 1 ) - Ф(X 0 ) =0,27 > = 0,1  продолжаем поиск.

    Аналогично получим X 3:

Ф(X 3 ) = (0.94–1) 2 + (1.94–2) 2 = 0.007,

Ф(X 3 ) = (0,84 –1) 2 + (1,84–2) 2 = 0,05.

Так как условие прекращения поиска выполнено, найдено Х * = X 3 = (0.94, 1.94) с точностью = 0.1.

Траектория поиска для данного примера приведена на рис. 6.5.

Несомненным преимуществом градиентных методов является отсутствие лишних затрат на получение пробных точек, что снижает затраты на проведение одной итерации. Кроме того, за счет использования эффективного направления поиска (вектора градиента) заметно сокращается и число итераций по сравнению с методом покоординатного спуска.

В градиентном методе можно несколько сократить число итераций, если научиться избегать ситуаций, когда несколько шагов поиска выполняются в одном и том же направлении.

В градиентном методе с дроблением шага процедура подбора величины шага на каждой итерации реализуется следующим образом.

e , начальная точка поиска Х 0 h (обычно h = 1). Получение новых точек производится по формуле:

Х k+1 = Х k – h k × grad Ф (Х k ), k=0,1,2,…, (6.25)

где h k – величина шага на k -ой итерации поиска, при h k должно выполняться условие:

Ф(Х k h k × grad Ф(Х k )) £ Ф(Х k ) - h k ×½ grad Ф(Х k ) ½ 2 . (6.26)

Если величина h k такова, что неравенство (2.64) не выполнено, то производится дробление шага до тех пор, пока данное условие не будет выполнено.

Дробление шага выполняется по формуле h k = h k ×a , где 0 < a < 1.Такой подход позволяет сократить число итераций, но затраты на проведение одной итерации при этом несколько возрастают.

Это обеспечивает простоту замены и дополнения процедур, данных и знаний.

В методе наискорейшего спуска на каждой итерации градиентного метода выбирается оптимальный шаг в направлении градиента.

Исходными данными являются требуемая точность e , начальная точка поиска Х 0 .

Получение новых точек производится по формуле:

Х k+1 = Х k – h k × grad Ф (Х k ), k=0,1,2,… , (6.27)

где h k = arg min Ф(Х k h k × grad Ф(Х k )) , то есть выбор шага производится по результатам одномерной оптимизации по параметру h (при 0 < h < ¥).

Основная идея метода наискорейшего спуска заключается в том, что на каждой итерации метода выбирается максимально возможная величина шага в направлении наискорейшего убывания целевой функции, то есть в направлении вектора-антиградиента функции Ф(Х) в точке Х k . (рис. 2.23).

При выборе оптимальной величины шага необходимо из множества Х М = {Х ½ Х= Х k h × grad Ф(Х k ), h Î / h = 22(2h -1)2=8(2h -1)=0.

Следовательно, h 1 = 1/2 – оптимальный шаг на первой итерации метода наискорейшего спуска. Тогда

Х 1 = Х 0 – 1/2grad Ф(Х 0 ),

x 1 1 =0 -1/2 = 1, x 2 1 = 1-1/2 = 2  Х 1 = (1, 2).

Проверим выполнение условий прекращения поиска в точке поиска Х 1 = (1, 2). Первое условие не выполнено

Ф(X 1 )-Ф(X 0 ) = 0-2 =2 > = 0.1, но справедливо

то есть все частные производные с точностью можно считать равными нулю, точка минимума найдена: Х*=Х 1 =(1, 2). Траектория поиска приведена на рис. 6.7.

Таким образом, метод наискорейшего спуска нашел точку минимума целевой функции за одну итерацию (из-за того, что линии уровня функции Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 . ((x 1 – 1) 2 + (x 2 –2) 2 = const – уравнение окружности, и вектор антиградиент из любой точки точно направлен в точку минимума – центр окружности).

На практике целевые функции гораздо более сложные, линии также имеют сложную конфигурацию, но в любом случае справедливо следующее: из всех градиентных методов в методе наискорейшего спуска наименьшее число итераций, но некоторую проблему представляет поиск оптимального шага численными методами, так как в реальных задачах, возникающих при проектировании РЭС применение классических методов нахождения экстремума практически невозможно.

Для задач оптимизации в условиях неопределенности (оптимизация стохастических объектов), в которых один или несколько управляемых параметров являются случайными величинами, используется двухуровневый адаптивный метод поисковой оптимизации, являющийся модификацией градиентного метода.

Х 0 и начальная величина шага поиска h (обычно
). Получение новых точек производится по формуле:

Х k+1 = Х k – h k+1 × grad Ф(Х k), k = 0,1,2,…, (6.28)

где шаг h k +1 может быть рассчитан по одной из двух формул: h k +1 = h k + l k +1 ×a k , или h k +1 = h k × exp (l k +1 ×a k ) . В качестве понижающего коэффициента выбирают обычно l k =1/ k , где k – номер итерации поискового метода.

Смысл применения коэффициента l k заключается в том, что на каждой итерации производится некоторая корректировка величины шага, при этом чем больше номер итерации метода поиска, тем ближе очередная точка поиска к точке экстремума и тем аккуратнее (меньше) должна быть корректировка шага с тем, чтобы не допустить удаления от точки экстремума.

Величина a k определяет знак такой корректировки (при a k >0 шаг увеличивается, а при a k <0 уменьшается):

a k =sign{(grad Ф (Х k ),grad Ф (Х ))} ,

то есть a k – это знак скалярного произведения векторов градиентов целевой функции в точках Х k и , где=Х k h k × grad Ф(Х k ) пробная точка, а h k – это шаг, который был использован для получения точки Х k на предыдущей итерации метода.

Знак скалярного произведения двух векторов позволяет оценить величину угла между данными векторами (обозначим этот угол ). Если  9, то скалярное произведение должно быть положительным, в противном случае – отрицательным. С учетом вышеизложенного нетрудно понять принцип корректировки величины шага в двухуровневом адаптивном методе. Если угол между антиградиентами   (острый угол), то направление поиска из точки Х k выбрано правильно, и величину шага можно увеличить (рис. 6.8).

Рис. 6.8. Выбор направления поиска при  

Если же угол между антиградиентами   (тупой угол), то направление поиска из точки Х k удаляет нас от точки минимума Х* , и шаг нужно уменьшить (рис. 6.9).

Рис. 6.9. Выбор направления поиска при > 

Метод носит название двухуровневого, так как на каждой итерации поиска анализируются не одна, а две точки и строятся два вектора антиградиента.

Это, конечно, увеличивает затраты на проведение одной итерации, но позволяет проводить адаптацию (настройку) величины шага h k +1 на поведение случайных факторов.

Несмотря на простоту реализации метод наискорейшего спуска не рекомендуется в качестве “серьезной” оптимизационной процедуры для решения задачи безусловной оптимизации функции многих переменных, так как для практического применения он работает слишком медленно.

Причиной этого является тот факт, что свойство наискорейшего спуска является локальным свойством, поэтому необходимо частое изменение направления поиска, что может привести к неэффективной вычислительной процедуре.

Более точный и эффективный метод решения задачи параметрической оптимизации можно получить, используя вторые производные целевой функции (методы второго порядка). Они базируются на аппроксимации (то есть приближенной замене) функции Ф(Х) функцией j (Х) ,

j (Х) = Ф(Х 0 ) + (Х - Х 0 ) т × grad Ф(Х 0 ) + ½ G (X 0 ) × (Х - Х 0 ) , (6.29)

где G (X 0 ) - матрица Гессе (гессиан, матрица вторых производных), вычисленная в точке Х 0 :

2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x 1 2 x 1 x 2 x 1 x n

G (X ) = 2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x 2 x 1 x 2 2 x 2 x n

2 Ф(Х) 2 Ф(Х) . . . 2 Ф(Х)

x n x 1 x n x 2 x n 2 .

Формула (2.67) представляет собой первые три члена разложения функции Ф(Х) в ряд Тейлора в окрестности точки Х 0 , поэтому при аппроксимации функции Ф(Х) функцией j (Х) возникает ошибка не более чем ½½Х-Х 0 ½½ 3 .

С учетом (2.67) в методе Ньютона исходными данными являются требуемая точность e , начальная точка поиска Х 0 и получение новых точек производится по формуле:

Х k +1 = Х k G -1 k ) × grad Ф(Х k), k =0,1,2,…, (6.30)

где G -1 k ) – матрица, обратная к матрице Гессе, вычисленная в точке поиска Х k (G k ) × G -1 k ) = I,

I = 0 1 … 0 - единичная матрица.

Рассмотрим пример поиска минимума для той же функции, что и в градиентном методе с постоянным шагом и в методе покоординатного спуска:

n = 2, X = (x 1 , x 2 ), = 0.1,

Ф(x 1 , x 2 ) = (x 1 – 1) 2 + (x 2 – 2) 2 min , Х 0 =(0, 1).

    Получим точку Х 1 :

X 1 = X 0 – G –1 (X 0)∙grad Ф(X 0),

где

grad Ф(X 0) = (2∙(x 1 0 –1)), 2∙(x 1 0 –1) = (–2, –2), то есть

или

x 1 1 = 0 – (1/2∙(–2) + 0∙(–2)) = 1,

x 2 1 = 1 – (0∙(–2) + 1/2∙(–2)) = 2,

X 1 = (1, 2).

Проверим выполнение условий прекращения поиска: первое условие не выполнено

Ф(X 1 )-Ф(X 0 ) = 0 - 2  = 2 > = 0.1,

но справедливо

то есть все частные производные с точностью  можно считать равными нулю, точка минимума найдена: Х* = Х 1 = (1, 2). Траектория поиска совпадает с траекторией метода наискорейшего спуска (рис. 2.24).

Главным недостатком метода Ньютона являются затраты на вычисление обратного гессиана G -1 k ) на каждой итерации метода.

В методе ДФП преодолены недостатки как метода наискорейшего спуска, так и метода Ньютона.

Достоинством данного метода является то, что он не требует вычисления обратного гессиана, а в качестве направления поиска в методе ДФП выбирается направление –Н k × grad Ф (Х k), где Н k - положительно определенная симметричная матрица, которая заново рассчитывается на каждой итерации (шаге метода поиска) и приближает обратный гессиан G -1 k ) (Н k ® G -1 k ) с увеличением k ).

Кроме того, метод ДФП при его применении для поиска экстремума функции n переменных сходится (то есть дает решение) не более чем за n итераций.

Вычислительная процедура метода ДФП включает следующие шаги.

Исходными данными являются требуемая точность e, начальная точка поиска Х 0 и начальная матрица Н 0 (обычно единичная матрица, Н 0 = I).

    На k -ой итерации метода известны точка поиска Х k и матрица Н k (k = 0,1,…).

    Обозначим направление поиска

d k = -Н k × grad Ф(Х k).

Находим оптимальную величину шага l k в направлении d k с помощью методов одномерной оптимизации (так же, как в методе наискорейшего спуска выбиралась величина в направлении веrтора антиградиента)

З. Обозначим v k = l k × d k и получим новую точку поиска Х k +1 = X k + v k .

4. Проверяем выполнение условия прекращения поиска.

Если ½v k ½£ e или ½grad Ф(Х k +1 ) ½£ e , то решение найдено Х * = Х k +1 . В противном случае продолжаем вычисления.

5. Обозначим u k = grad Ф(Х k +1) - grad Ф(Х k) и матрицу Н k +1 рассчитаем по формуле:

H k +1 = H k + A k + B k , (6.31)

где A k = v k . v k T / (v k T × u k ) , B k = - H k × u k . u k T . H k / (u k T × H k × u k ) .

A k и В k – это вспомогательные матрицы размера n х n (v k T соответствует вектору-строке, v k означает вектор-столбец, результатом умножения n -мерной строки на n -мерный столбец является скалярная величина (число), а умножение столбца на строку дает матрицу размера n x n ).

6. Увеличиваем номер итерации на единицу и переходим к пункту 2 данного алгоритма.

Метод ДФП – это мощная оптимизационная процедура, эффективная при оптимизации большинства функций. Для одномерной оптимизации величины шага в методе ДФП используют методы интерполяции.

Со временем приходит понимание необходимости изучения основ SEO, потому как, насколько бы не были интересны и полезны публикуемые вами материалы и статьи, для поисковых систем они всего лишь текст и для того, чтобы придать ему важность и значимость необходима SEO оптимизация.

Понятие SEO очень обширно, это отнюдь не несколько хитрых приемов, которые позволяют сайтам попадать на первые места топ 10 результатов поиска, SEO - это целая наука, которая постоянно развивается, и поскольку она напрямую зависит от алгоритмов поисковых систем, вместе с изменением алгоритмов изменяются и методы используемые ей.

В данной статье я постараюсь простым и доступным для начинающих блоггеров и веб мастеров языком изложить основы поисковой оптимизации и продвижения именуемого SEO, и указать основные направления этого довольно сложного для понимания комплекса мер, необходимых для достижения хороших позиций для страниц вашего сайта.

SEO начинающим: основы оптимизации и продвижения для начинающих

Что такое SEO (search engine optimization)

SEO (англ. Search Engine Optimization ) или просто поисковая оптимизация - это комплекс способов и методов, предназначенных для задействования и усиления всех положительных (как внутренних так и внешних) факторов которые берутся в расчет алгоритмами поисковых систем для определения позиций каждой страницы в результатах поиска по нужным словам (поисковым запросам).

Возможно у вас возникнет весьма резонный вопрос: почему поисковые системы не могут определить значимость и качественность контента (внутреннего содержания) без использования всяких SEO штучек и уловок?
Ответ на этот вопрос весьма прост: поисковые системы всего лишь машины и какими бы сложными и мудреными алгоритмами их не напичкали, они так и останутся ими, с шаблонным восприятием всего индексируемого содержимого наших сайтов. Именно поэтому нам приходится играть по их правилам и подстраиваться под эти шаблоны используя рекомендации как самих поисковых систем так и практиков SEO специалистов, которые путем многочисленных экспериментов узнают те факторы о которых поисковые системы умалчивают.

Белое и черное SEO

Не все приемы поисковой оптимизации считаются дозволенными и одобряются поисковиками, те из них которые являются запрещенными включает в себя черное SEO.
К этим приемам относятся такие как:

  • Невидимый для посетителей, предназначенный поисковым системам текст и ссылки. Например: белый текст на белом фоне.
  • Клоакинг и яваскрипт редиректы: поисковые боты видят одно содержимое страниц, а пользователи совершенно другое или перенаправляются на другую страницу
  • Дорвеи: страницы напичканные ключевыми словами

Использование черных методов оптимизации крайне нежелательно и рано или поздно становится причиной (понижения позиций страниц в результатах поиска), попадания под и даже бана всего домена.

Что включает в себя понятие SEO

Говоря о SEO как о способе достижения наилучших позиций в результатах поиска, обычно подразумевают две его составляющих:

  1. Внутреннюю оптимизацию (on-page SEO) сайта или конкретной страницы
  2. и внешнее продвижение (off-page SEO).

Обычно самых лучших результатов добиваются при одновременном использовании оптимизации с подпиткой продвигаемых страниц внешними входящими ссылками, хотя в некоторых частных случаях бывает достаточно лишь и .

Внутренняя оптимизация сайта

Внешнее продвижение сайта

Внешнее поисковое продвижение - самый последний этап поисковой оптимизации. Под внешним продвижением обычно подразумевают получение входящих ссылок с других сайтов () на продвигаемые страницы. Как правило, чем больше страниц различных сайтов ссылаются на вашу тем значимей она становится в глазах поисковиков, Самыми важными аспектами внешнего SEO являются:

  • Подбор текста для размещения ссылок
  • Выбор правильных доноров (ссылающихся сайтов). Их подбирают обычно из тематически близких (тех которым поисковые системы доверяют) ресурсов.

Внешние ссылки на продвигаемые страницы можно получить несколькими, как платными так и бесплатными способами. Нужно отметить очень негативное отношение поисковиков к платным - , но к сожалению без них порой бывает не обойтись. Самыми оптимальными средствами для их получения являются .
Бесплатные методы получения обратных ссылок более трудоемки и отнимают намного больше времени чем их покупка. К этим методам относится:

  • Размещение статей в (очень мало действительно достойных русскоязычных каталогов)
  • Взаимный обмен ссылками (постовыми) с сайтами схожей тематики (тут главное знать меру и ни в коем случае не участвовать в системах по обмену).
  • Размещение - самый эффективный способ получения прямых тематических ссылок, которые не только повысят позиции, но и будут приводить на ваш сайт посетителей. Количество оных будет прямо пропорционально и полезности вашей статьи.

1. Назначение и классификация методов поисковой оптимизации

В связи со сложностью объектов проектирования критерии качества и ограничения задачи параметрической оптимизации (1.5), как правило, слишком сложны для применения классических методов поиска экстремума. Поэтому на практике предпочтение отдается методам поисковой оптимизации. Рассмотрим основные этапы любого метода поиска.

Исходными данными в методах поиска являются требуемая точность метода и начальная точка поиска Х 0 .

Затем выбирается величина шага поиска h, и по некоторому правилу происходит получение новых точек Х k +1 по предыдущей точке Х k , при k = 0,1,2,… Получение новых точек продолжают до тех пор, пока не будет выполнено условие прекращения поиска. Последняя точка поиска считается решением задачи оптимизации. Все точки поиска составляют траекторию поиска.

Методы поиска могут отличаться друг от друга процедурой выбора величины шага h (шаг может быть одинаковым на всех итерациях метода или рассчитываться на каждой итерации), алгоритмом получения новой точки и условием прекращения поиска.

Для методов, использующих постоянную величину шага, h следует выбирать значительно меньше точности h » Öe). Если при выбранной величине шага h не удается получить решение с требуемой точностью, то нужно уменьшить величину шага и продолжить поиск из последней точки имеющейся траектории.

В качестве условий прекращения поиска принято использовать следующие:

все соседние точки поиска хуже, чем предыдущая;

çФ(X k +1) - Ф(X k)ç£ e, то есть значения целевой функции Ф(Х) в соседних точках (новой и предыдущей) отличаются друг от друга на величину не больше, чем требуемая точность e;

то есть все частные производные в новой точке поиска практически равны 0 или отличаются от 0 на величину, не превышающую заданной точности e.

Алгоритм получения новой точки поиска Х k +1 по предыдущей точке Х k свой для каждого из методов поиска, но всякая новая точка поиска должна быть не хуже предыдущей: если задача оптимизации является задачей поиска минимума, то Ф(Х k +1) £ Ф(Х k).

Методы поисковой оптимизации принято классифицировать по порядку производной целевой функции, используемой для получения новых точек. Так, в методах поиска нулевого порядка не требуется вычисления производных, а достаточно самой функции Ф(Х). Методы поиска первого порядка используют первые частные производные, а методы второго порядка используют матрицу вторых производных (матрицу Гессе).

Чем выше порядок производных, тем более обоснованным является выбор новой точки поиска и тем меньше число итераций метода. Но при этом возрастает трудоемкость каждой итерации из-за необходимости численного расчета производных.

Эффективность поискового метода определяют по числу итераций и по количеству вычислений целевой функции Ф(Х) на каждой итерации метода (N). Рассмотрим наиболее распространенные методы поиска, расположив их в порядке уменьшения числа итераций.

Для методов поиска нулевого порядка справедливо следующее: в методе случайного поиска нельзя заранее предсказать количество вычислений Ф(Х) на одной итерации N, а в методе покоординатного спуска N £ 2×n, где n- количество управляемых параметров X = (x1, x2.,…,xn).

Для методов поиска первого порядка справедливы следующие оценки: в градиентном методе с постоянным шагом N=2×n; в градиентном методе с дроблением шага N = 2×n + n 1 , где n 1 – число вычислений Ф(Х), необходимых для проверки условия дробления шага; в методе наискорейшего спуска N=2×n+n 2 , где n 2 – число вычислений Ф(Х), необходимых для расчета оптимальной величины шага; а в методе Давидона – Флетчера - Пауэлла (ДФП) N = 2× n + n 3 , где n 3 – число вычислений Ф(Х), необходимых для расчета матрицы, приближающей матрицу Гессе (для величин n 1 , n 2 , n 3 справедливо соотношение n 1 < n 2 << n 3).

И, наконец, в методе второго порядка - методе Ньютона N = 3×n 2 . При получении данных оценок предполагается приближенное вычисление производных по формулам конечных разностей / 6 /:


то есть для вычисления производной первого порядка нужно знать два значения целевой функции Ф(Х) в соседних точках, а для второй производной – значения функции в трех точках.

На практике широкое применение нашли метод наискорейшего спуска и метод ДФП, как методы с оптимальным соотношением числа итераций и их трудоемкости.


2. Методы поиска нулевого порядка

2.1. Метод случайного поиска

В методе случайного поиска исходными данными являются требуемая точность метода e, начальная точка поиска Х 0 = (x1 0 , x2. 0 ,…,xn 0) и величина шага поиска h. Поиск новых точек производится в случайном направлении, на котором и откладывается заданный шаг h (рис. 2.1), таким образом получают пробную точку Х ^ и проверяют, является ли пробная точка лучшей, чем предыдущая точка поиска. Для задачи поиска минимума это означает, что

Ф(Х ^) £ Ф(Х k) , k = 0,1,2… (2.4)

Если условие (2.4) выполнено, то пробную точку включают в траекторию поиска Х k +1 = Х ^ . В противном случае, пробную точку исключают из рассмотрения и производят выбор нового случайного направления из точки Х k , k = 0,1,2,.

Несмотря на простоту данного метода, его главным недостатком является тот факт, что заранее неизвестно, сколько случайных направлений потребуется для получения новой точки траектории поиска Х k +1 , что делает затраты на проведение одной итерации слишком большими. Кроме того, поскольку при выборе направления поиска не используется информация о целевой функции Ф(Х), число итераций в методе случайного поиска очень велико.

В связи с этим метод случайного поиска используется для исследования малоизученных объектов проектирования и для выхода из зоны притяжения локального минимума при поиске глобального экстремума целевой функции /6/.

2.2. Метод покоординатного спуска

В отличие от метода случайного поиска, в методе покоординатного спуска в качестве возможных направлений поиска выбирают направления, параллельные осям координат, причем движение возможно как в сторону увеличения, так и уменьшения значения координаты.

Исходными данными в методе покоординатного спуска являются величина шага h и начальная точка поиска Х 0 = (x1 0 , x2. 0 ,…,xn 0). Движение начинаем из точки Х 0 вдоль оси x1 в сторону увеличения координаты. Получим пробную точку Х ^ с координатами (x1 0 +h, x2 0 ,…,xn 0), при k = 0.

Сравним значение функции Ф(Х ^) с значением функции в предыдущей точке поиска Х k . Если Ф(Х ^) £ Ф(Х k) (мы предполагаем, что требуется решить задачу минимизации целевой функции Ф(Х)), то пробную точку включают в траекторию поиска (Х k +1 = Х ^).

В противном случае, пробную точку исключаем из рассмотрения и получаем новую пробную точку, двигаясь вдоль оси x1 в сторону уменьшения координаты. Получим пробную точку Х ^ = (x1 k -h, x2. k ,…,xn k). Проверяем, если Ф(Х ^) > Ф(Х k), то продолжаем движение вдоль оси x 2 в сторону увеличения координаты. Получим пробную точку Х ^ = (x1 k , x2. k +h,…,xn k) и т.д. При построении траектории поиска повторное движение по точкам, вошедшим в траекторию поиска, запрещено. Получение новых точек в методе покоординатного спуска продолжается до тех пор, пока не будет получена точка Х k , для которой все соседние 2×n пробных точек (по всем направлениям x1, x2.,…,xn в сторону увеличения и уменьшения значения каждой координаты) будут хуже, то есть Ф(Х ^) > Ф(Х k). Тогда поиск прекращается и в качестве точки минимума выбирается последняя точка траектории поиска Х* = Х k .


3. Методы поиска первого порядка

3.1. Структура градиентного метода поиска

В методах поиска первого порядка в качестве направления поиска максимума целевой функции Ф(Х) выбирается вектор градиент целевой функции grad (Ф(Х k)), для поиска минимума – вектор антиградиент -grad (Ф(Х k)). При этом используется свойство вектора градиента указывать направление наискорейшего изменения функции:


Для изучения методов поиска первого порядка важно также следующее свойство: вектор градиент grad (Ф(Х k)) направлен по нормали к линии уровня функции Ф(Х) в точке Х k (см. рис. 2.4). Линии уровня – это кривые, на которых функция принимает постоянное значение (Ф(Х) = соnst).

В данной главе мы рассмотрим 5 модификаций градиентного метода:

градиентный метод с постоянным шагом,

градиентный метод с дроблением шага,

метод наискорейшего спуска,

метод Давидона-Флетчера-Пауэлла,

двухуровневый адаптивный метод.

3.2. Градиентный метод с постоянным шагом

В градиентном методе с постоянным шагом исходными данными являются требуемая точность e, начальная точка поиска Х 0 и шаг поиска h.

Получение новых точек производится по формуле.

Термин поисковая оптимизация происходит от английского “search engines optimization” – “оптимизация под поисковые машины”. Данное направление в последние годы получает все более широкое развитие в Рунете и представляет один из основных и наиболее действенных методов, отвечающих за успешность любого Интернет-проекта.

Эффект – стабильные высокие позиции в поисковых системах.

Исправление ошибок в навигации сайта и редактирование программного кода – это работа над внутренними факторами сайта, влияющими как на удобство сайта для пользователей, так и на его “дружественность” по отношению к роботам поисковых систем.

Наращивание контента – добавление новых страниц, содержащих полезную для целевых посетителей информацию.

Размещение ссылок на тематических ресурсах отличается от хаотичного обмена ссылками тем, что ссылки публикуются только на сайтах, посетителей которых может действительно заинтересовать информация, размещенная на страницах Вашего сайта.

Использование “белой” оптимизации, как правило, приводит не только к повышению сайта на первых позициях, но и увеличению посетителей сайта в несколько десятков раз.

Здравствуйте, друзья!

Начиная с этой статьи мы начинаем погружаться в мир продвижения сайтов и разберем первый момент, который вы должны понимать не как что-то сложное и техническое, а как совсем простое и подходить к этому вопросу без особых заморочек.

В данном материале я отвечу на вопрос "Что такое SEO" простыми словами и разберу основные принципы этого понятия, которые стоит учитывать при продвижении своего сайта.

Начнем с самого определения понятия.

SEO - аббревиатура английской фразы Search engine optimization, что в народе переводится, как оптимизация под поисковые системы или поисковая оптимизация. Все определения верны.

Исходя из этого понятия мы должны понимать, что это по сути всего лишь проработка сайта до состояния, которое будет нравится поисковым системам. Дело в том, что поисковые системы не люди, а соответственно они не могут одним взглядом определить, полезный сайт или нет. Поэтому, необходимо подводить наш сайт к определенным параметрам, которые помогут им в этом разобраться. И все действия, которые это предусматривают и называют СЕО оптимизацией.

Сюда входит много факторов и методов, которые я расскажу далее.

SEO в нынешних условиях

С течением времени ситуация в мире создания и раскрутки сайтов становится все сложнее и сложнее. Связано это с несколькими факторами:

  • Каждый день создается много сайтов и поисковым системам нужно выбирать действительно полезные сайты;
  • Много сайтов создается именно для продвижения бизнеса, так как посетители из поисковых систем - это самый дешевый целевой трафик (относительно).

Вследствие этих факторов появляется очень много тех, кто пытается продвинуть свои сайты в ТОП (наивысшие позиции в поиске) для получения наибольшего трафика. А ведь, чем больше сайтов, тем больше работа у поисковых систем по определению полезности сайта и в их сравнивании между собой. Ведь не каждый сайт полезен и по каким-то критериям поисковые системы должны дать предпочтение одному ресурсу над другим.

Если мы не будем знать основные принципы SEO оптимизации, то, чем мы будем лучше других? В этом и есть вся сущность определения, рассматриваемого в статье. Мы должны знать основные принципы, чтобы сделать наш сайт эффективнее, тем самым более легче и быстрее его раскрутить.

Если сказать просто об эффективном сайте, то на данный момент для поисковых систем эффективным является ресурс, который:

  1. Полезен людям, то есть содержит ценную и полезную информацию;
  2. Похож на сайт изнутри.

Если вкратце описать суть этого пункта, то нынешнее SEO сводится к тому, чтобы сделать сайт максимально полезным для людей и максимально понятным для поисковых систем, чтобы они смогли понять, что сайт действительно является хорошим.

Раньше все было не столь сложно, как сейчас. Поисковые системы не были настолько совершенны и не могли эффективно оценивать сайты. Сейчас требования к сайтам очень высокие. Все делается для того, чтобы в поиске нам показывались только лучшие ресурсы, решающие наши проблемы.

Чтобы наш сайт был на вершинах выдачи, необходимо выполнять работы по оптимизации, которые сделают сайт лучшим среди конкурентов. Эти работы подразделяются на несколько видов. К ним мы плавно и передвигаемся.

Виды

  1. С точки зрения запретности;
  2. В плане типа оптимизации.

Касаемо первого пункта, то SEO делится на:

  1. Белое;
  2. Черное.

Белое - SEO, которое не противоречит никаким правилам самих поисковых систем. В данном вопросе, как и в любом другом деле, имеются свои правила и ограничения, нарушая которые, можно не добиться желаемого результата или же свести все усилия на нет.

Черное - противоположное направление первому, которое подразумевает запретные методы оптимизации сайта. Это различные накрутки, манипуляции, обманные действия - покупка внешних ссылок, накручивание поведенческих факторов, социальных сигналов и так далее. В конечно итоге - это большой риск выбить свой же сайт из игры и получить бан в поисковых системах.

Конечно же, при грамотном использовании черной поисковой оптимизации можно значительно придать эффект продвижению сайта, тем самым обогнав конкурентов. Но, если вы не являетесь толковым специалистом в данной области, то вам такой подход категорически запрещен.

Теперь можно рассмотреть второе направление и поговорить о типах оптимизации, которых существует 2:

  1. Внутренняя оптимизация;
  2. Внешняя оптимизация.

Сайт нельзя рассматривать, как нечто абстрактное или только объект, который мы видим глазами. На самом деле - это, как предприятие, которое нуждается в правильно настроенной внутренней и внешней политике.

Продвижение сайта работает максимально эффективно или же вообще работает только при комплексном подходе. Поэтому, необходимо подвести ресурс к такому внутреннему состоянию, которое даст понять поисковым системам, что ресурс действительно похож на сайт и можно дать ему преимущество над конкурентами. Тоже самое касается и внешней оптимизации.

Если сказать проще, то:

  • Внутренняя оптимизация - работа внутри ресурса, чтобы он был максимально похож на сайт и был максимально релевантен (соответствовал) запросам, по которым идет продвижение;
  • Внешняя оптимизация - работы, которые ведутся для улучшения внешних показателей. В мире оптимизации данный фактор отвечают за работу над ссылочной массой (обратные ссылки). Я же отношу сюда еще и постоянное привлечение посетителей.

Более подробно про каждый тип оптимизации ниже.


Ко внутренней оптимизации относится работа с:

  • Мета-тегами страниц - у каждой страницы должны быть прописаны соответствующие данные (заголовок, описание, ключевые слова), которые помогают поисковым системам понять, о чем страница;
  • Работа с контентом - наполнение и правильная оптимизация контента, чтобы он отвечал на определенный вопрос;
  • Перелинковка - внутренняя работа над соединением страниц между собой, чтобы давать возможность посетителям переходить на другие страницы, находясь при том в одних. Очень важная вещь, которую мы подробно рассмотрим в одной из статей;
  • Структура сайта - правильное и удобное для посетителя расположение всех элементов на сайте;
  • Юзабилити - удобность пользования сайтом вашими посетителями;
  • Код страниц и сайта в целом - у ресурса должен быть грамотный и чистый код, чтобы поисковые системы легко могли считывать контент на страницах. Этот факто также имеет значения, так как роботы поисковиков видят наш сайт, как исходный код.

Все знаю фразу "Контент - король". Это понятно. В принципе, наполняя сайт качественным контентом, должно быть все нормально. Но поисковые системы также смотря и на другие моменты, которые должны дать понять им, действительно ли контент ценный на сайте. Правильная внутренняя оптимизация и помогает в этом разобраться отчасти.

Внешняя оптимизация более скромней, но работа с ней не менее сложная.


  • Наращивании ссылочной массы на сайт - одним из показателей полезности сайта является рост обратных ссылок а ресурс. То есть, количество ссылок, которые проставили на нас другие сайты. Это свидетельствует о том, что контент хороший и им делятся с другими. Поэтому, работать над этим показателям нужно;
  • Привлечении посетителей - чтобы наращивать аудиторию сайта и нарабатывать общую оценку сайту, нужно привлекать посетителей, на основании действий которых поисковые системы будут формировать мнение о проекте.

После того, как мы дали ответ на вопрос "Что такое СЕО" и рассмотрели основные виды оптимизации, можно перейти немного к другому вопросу и рассмотреть моменты СЕО, влияющие на продвижение сайта. Над ними нужно работать постоянно.

Факторы, влияющие на продвижение

В данном пункте я хочу немного раскрыть вопрос показателей, которые оценивают поисковые системы, анализируя ваш сайт. На их оценке они и дают вам хорошие либо плохие позиции в выдаче на страницах поиска.

С данными показателями вам необходимо ознакомиться 100%, если вы будете или уже занимаетесь SEO. Вам нужно будет работать над каждым из них.

Предлагаю рассмотреть все на примере диаграммы ниже.


Длину всей полосы мы рассматриваем за 100%, а зеленое заполненное состояние - значение каждого показателя в продвижении. Пробежимся по каждому.

  • Контент - видно, что довольно высокое значение занимает в продвижении. И это не странно, ведь по сути, сайт - это контент. Чем его больше и чем он качественней, тем больше ценность несет ресурс и тем выше эффект;
  • Ссылки - это внешние ссылки, которые ведут на ваш сайт. Значение не столь велико, но использовать все равно нужно, чтобы прибавить эффект ко всем показателям;
  • Социальные сигналы - данный показатель определяет интересность вашего контента и, как им делятся в социальных сетях, как он распространяется. Поэтому, нужно обязательно использовать социальные сети в своем арсенале;
  • Сервисы и дополнения - данный фактор также дает небольшой плюс. Он подразумевает наличие какого-то сервиса или же какой-то фишки, которая помогает что-то сделать (например, проанализировать) прямо на вашем сайте. Для интернет магазина это может быть онлайн калькулятор, как вариант. Для информационного ресурса также можно придумать что-то. Как вариант, можно прикрепить функцию проверки показателей сайта;
  • Частота и скорость - особенно важный фактор для информационного ресурса. Чем быстрей и чаще сайт наполняется, тем быстрей и будет эффект в итоге. Почему сейчас я и делаю упор только на быстром наполнении своего блога контентом, а остальные задачи откинул на 2й план;
  • ПФ - поведенческие факторы. Является одним из самых основных показателей в полезности ресурса. Сюда входит много факторов - время проведенное на сайте, количество просмотренных страниц, возвраты на сайт, показатель отказов. Логично, что, чем лучше все эти показатели, тем и сайт в целом полезней. Над этим фактором нужно неуклонно работать. На данный момент - это основополагающий фактор в оценке полезности ресурса;
  • Техническая сторона - это отчасти внутренняя оптимизация. Как видим, довольно неплохую значимость играет. Также нужно обращать на это внимание;
  • Юзабилити и вовлечение - предлагаю рассмотреть эти показатели в отдельности. Юзабилити - удобность пользования сайтом посетителями. От удобности сайта зависят поведенческие факторы. Вовлечение - это показатель качества, ценности и новизны контента. Чем больше контент вовлекает посетителя в его изучение, тем лучше, так как в неинтересный и не полезный контент вряд ли кто будет вовлекаться.

Эта диаграмма должна дать вам базовое понимание, какие показатели сайта нужно улучшать в первую очередь. Но запомните, что улучшая только что-то одно, вы не добьетесь желаемого результата. Продвижение работает максимально эффективно при комплексном подходе.

К тому же поисковые системы работают не по линейным законам и, если один из показателей вашего сайта равняется нулю, то он может умножить все остальные показатели на тот же ноль, сделав продвижение не столь эффективным.

На этом данную статью я буду заканчивать. Получился довольно подробный и информативный материал. Надеюсь, что я вполне ответил на вопрос "Что такое SEO" и даже больше. Жду по этому поводу ваших комментариев. Всем отвечу и помогу. Если вдруг, что-то есть добавить, то жду ваших пожеланий. Все учтем.

А основной вывод всего вышеизложенного материала таков: "Делаем сайты максимально полезными и понятными для людей, а также для поисковых систем" . В общем, делаем наши сайты похожими на сайты и используем при этом все те факторы, которые я рассмотрел выше.

В следующих статьях мы будем рассматривать с вами в отдельности каждый рассмотренный фактор и показатель. Также будем улучшать их, тем самым делать наши сайты лучше и продвигать их. Будет очень много интересного. Ждите!

На этом все. До встречи в новых материалах.

С уважением, Константин Хмелев.