Изображение на pc.vector на Фрипик
Эта статья объяснит некоторые из самых известных алгоритмов машинного обучения менее чем за минуту, помогая каждому понять их!
Линейная регрессия, один из самых простых алгоритмов машинного обучения, используется для прогнозирования непрерывных зависимых переменных с использованием знаний из независимых переменных. Зависимая переменная – это эффект, при котором ее значение зависит от изменения независимой переменной.
Возможно, вы помните линию наилучшего соответствия из школы — это то, что производит линейная регрессия. Простым примером является предсказание веса человека в зависимости от его роста.
Логистическая регрессия, аналогичная линейной регрессии, используется для прогнозирования категориальных зависимых переменных со знанием независимых переменных. Категориальная переменная имеет две или более категорий. Логистическая регрессия классифицирует выходные данные, которые могут принимать значения только от 0 до 1.
Например, вы можете использовать логистическую регрессию, чтобы определить, будет ли студент принят или нет в конкретный колледж, в зависимости от его оценок — либо «да», либо «нет», либо «0» или «1».
Деревья решений (DT) — это модель древовидной структуры вероятностей, которая непрерывно разбивает данные для классификации или прогнозирования на основе предыдущего набора вопросов, на которые были даны ответы. Модель изучает особенности данных и отвечает на вопросы, помогая вам принимать более обоснованные решения.
Например, вы можете использовать дерево решений, используя ответы «Да» или «Нет», чтобы определить конкретный вид птиц, используя такие характеристики данных, как перья, способность летать или плавать, тип клюва и т. д.
Подобно деревьям решений, Random Forest также является древовидным алгоритмом. Там, где дерево решений состоит из одного дерева, случайный лес использует несколько деревьев решений для принятия решений — лес деревьев.
Он объединяет несколько моделей для прогнозирования и может использоваться в задачах классификации и регрессии.
K-ближайшие соседи используют статистические знания о том, насколько близка точка данных к другой точке данных, и определяют, можно ли сгруппировать эти точки данных вместе. Близость точек данных отражает сходство друг с другом.
Например, если бы у нас был график с группой точек данных, которые были близки друг к другу, называемой группой A, и другой группой точек данных, которые были в непосредственной близости друг от друга, называемой группой B. Когда мы вводим новую точку данных, в зависимости от того, к какой группе ближе новая точка данных — это будет их новая классифицированная группа.
Подобно ближайшему соседу, метод опорных векторов выполняет задачи классификации, регрессии и обнаружения выбросов. Он делает это, рисуя гиперплоскость (прямую линию), чтобы разделить классы. Точки данных, расположенные на одной стороне линии, будут помечены как группа A, а точки на другой стороне будут помечены как группа B.
Например, когда вводится новая точка данных, в зависимости от того, с какой стороны гиперплоскости и ее положения в пределах поля она находится, это будет определять, к какой группе принадлежит точка данных.
Наивный Байес основан на теореме Байеса, которая представляет собой математическую формулу, используемую для расчета условных вероятностей. Условная вероятность — это вероятность наступления исхода при условии, что произошло другое событие.
Он предсказывает, что вероятности для каждого класса принадлежат определенному классу и что класс с наибольшей вероятностью считается наиболее вероятным классом.
Кластеризация K-средних аналогична ближайшим соседям, но использует метод кластеризации для группировки похожих элементов/точек данных в кластеры. Количество групп обозначается как K. Вы делаете это, выбирая значение k, инициализируя центроиды, а затем выбирая группу и находя среднее значение.
Например, если присутствует 3 кластера и вводится новая точка данных, в зависимости от того, к какому кластеру она относится — это кластер, к которому они принадлежат.
Бэггинг также известен как агрегация Bootstrap и представляет собой метод ансамблевого обучения. Бэггинг используется как в регрессионных, так и в классификационных моделях и направлен на то, чтобы избежать переобучения данных и уменьшить дисперсию прогнозов.
Переобучение — это когда модель точно соответствует своим тренировочным данным — в основном ничему нас не учит и может быть вызвано разными причинами. Случайный лес является примером бэгинга.
Общая цель Boosting — превратить слабых учеников в сильных учеников. Слабые ученики обнаруживаются путем применения базовых алгоритмов обучения, которые затем генерируют новое слабое правило прогнозирования. Случайная выборка данных вводится в модель, а затем последовательно обучается, чтобы обучить слабых учеников и попытаться исправить своего предшественника.
XGBoost, что означает Extreme Gradient Boosting, используется в Boosting.
Уменьшение размерности используется для уменьшения количества входных переменных в обучающих данных за счет уменьшения размерности вашего набора функций. Когда модель имеет большое количество функций, она, естественно, более сложная, что приводит к более высокой вероятности переобучения и снижению точности.
Например, если у вас есть набор данных с сотней столбцов, уменьшение размерности уменьшит количество столбцов до двадцати. Однако вам понадобится функция выбора функций, чтобы выбрать соответствующие функции, и разработка функций, чтобы создать новые функции из существующих функций.
Метод анализа основных компонентов (PCA) представляет собой тип уменьшения размерности.
Цель этой статьи состояла в том, чтобы помочь вам понять алгоритмы машинного обучения в самых простых терминах. Если вы хотите получить более глубокое понимание каждого из них, прочитайте это Популярные алгоритмы машинного обучения.
Ниша Арья является специалистом по данным и внештатным техническим писателем. Она особенно заинтересована в предоставлении карьерных советов или учебных пособий по науке о данных, а также теоретических знаний по науке о данных. Она также хочет изучить различные способы, которыми искусственный интеллект может способствовать долголетию человеческой жизни. Страстная ученица, стремящаяся расширить свои технические знания и навыки письма, одновременно помогая другим.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- Платоблокчейн. Интеллект метавселенной Web3. Расширение знаний. Доступ здесь.
- Источник: https://www.kdnuggets.com/2022/07/machine-learning-algorithms-explained-less-1-minute.html?utm_source=rss&utm_medium=rss&utm_campaign=machine-learning-algorithms-explained-in-less-than-1-minute-each
- 1
- a
- способность
- точность
- признал
- совет
- против
- Стремясь
- Цель
- алгоритм
- алгоритмы
- анализ
- и
- Другой
- ответы
- Применение
- около
- гайд
- искусственный
- искусственный интеллект
- в среднем
- избежать
- Использование темпера с изогнутым основанием
- основанный
- в основном
- польза
- ЛУЧШЕЕ
- Лучшая
- между
- птица
- стимулирование
- Начальная загрузка
- расширять
- расчет
- под названием
- Карьера
- категории
- шанс
- изменения
- класс
- классов
- классификация
- классифицированный
- Закрыть
- Кластер
- кластеризации
- Колледж
- Колонки
- комбинаты
- комплекс
- компонент
- считается
- (CIJ)
- непрерывно
- конвертировать
- данным
- точки данных
- наука о данных
- ученый данных
- решение
- Древо решений
- решения
- снижение
- зависимый
- в зависимости
- зависит
- глубина
- обнаружение
- Определять
- определяет
- различный
- Размеры
- вниз
- рисование
- каждый
- эффект
- или
- Проект и
- и т.д
- События
- все члены
- точно,
- пример
- существующий
- Объяснять
- объяснены
- Больше
- экстремальный
- Водопад
- Особенность
- Особенности
- обнаружение
- соответствовать
- лес
- формула
- найденный
- внештатно
- от
- порождать
- генерирует
- данный
- график
- группы
- Группы
- инструкция
- высота
- помощь
- помощь
- High
- высший
- наивысший
- Как
- Однако
- HTML
- HTTPS
- человек
- in
- независимые
- вход
- Интеллекта
- заинтересованный
- IT
- КДнаггетс
- Острый
- знания
- известный
- ведущий
- ученик
- изучение
- ЖИЗНЬЮ
- Вероятно
- линия
- расположенный
- расположение
- долговечность
- машина
- обучение с помощью машины
- Продукция
- сделать
- Создание
- Маржа
- математический
- метод
- минут
- модель
- Модели
- БОЛЕЕ
- самых
- с разными
- естественно
- Необходимость
- соседи
- Новые
- Новые функции
- номер
- произошло
- ONE
- Другое
- Другое
- Результат
- общий
- особый
- особенно
- выполняет
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- Точка
- пунктов
- прогнозирования
- прогноз
- Predictions
- предсказывает
- представить
- предыдущий
- Основной
- вероятность
- обеспечение
- Вопросы
- случайный
- Читать
- причины
- уменьшить
- снижение
- назвало
- отражает
- регресс
- соответствующие
- помнить
- Правило
- Школа
- Наука
- Ученый
- поиск
- выбор
- выбор
- отдельный
- набор
- аналогичный
- сходство
- просто
- навыки
- некоторые
- конкретный
- расколы
- стоит
- статистический
- прямой
- сильный
- Структура
- "Студент"
- такие
- поддержка
- задачи
- Обучение
- технологии
- Технический
- terms
- Ассоциация
- их
- в
- вместе
- Train
- специалистов
- Обучение
- Деревья
- учебные пособия
- понимать
- понимание
- us
- использование
- ценностное
- переменные
- различный
- способы
- вес
- Что
- будь то
- , которые
- В то время как
- будете
- пожелания
- в
- бы
- писатель
- письмо
- ВАШЕ
- зефирнет