- Машинное обучение, искусственный интеллект. Python, Pandas, Keras. Часть 1.
- Основы
- Логическая индексация
- Индексация по названиям и порядковым номерам
- Применение функции к каждому столбцу
- Применение функции к каждой ячейке
- Группировка данных
- Сводные таблицы
- Сводные таблицы
- Преобразование датафреймов
- Удаление строк и столбцов
- Рекомендации
Машинное обучение, искусственный интеллект. Python, Pandas, Keras. Часть 1.
В этой статье мы разберем основы работы с Pandas для машинного обучения.
Для начала работы установите Anaconda2. Однако, Вы можете использовать системный Python с библиотеками.
Перейдите по данной ссылке: https://www.anaconda.com/download/ и скачайте установочный файл для Вашей системы.
Далее нам потребуется Jupyter Notebook.
Предполагается, что Вы знаете основы Python. Если не знаете, то ничего страшного — синтаксис этого языка достаточно простой. Также необходимо ознакомиться с библиотеками NumPy, Pandas и Scipy.
По pandas есть отличная шпаргалка. Прилагается ниже:
Шпаргалка Pandas
Перед началом работы скачайте файл с котировками.
Основы
Первое, с чего нам необходимо начать, так это с импорта необходимых библиотек
import pandas as pd
import numpy as np
Давайте произведем чтение нашего CSV файла в переменную с типом dataframe. Dataframe в Pandas это, по-сути, такая же обычная таблица.
Сейчас мы считали в dataframe информацию об акциях Google.
Теперь нам необходимо хоть как-то оценить данные и что в них лежит. Для этого, давайте воспользуемся функцией head(), она выведет первые несколько строчек
Акции GOOGL — это акции класса A и дают право одного голоса владельцу, есть также акции GOOG — это акции класса C и не дают права голоса. Также есть акции класса B, каждая из которых дает 10 голосов, но их нет на публичном рынке.
Теперь оценим вообще размер нашего датасета. Воспользуемся свойством shape и выведем его.
Таким образом, в нашем датасете информация о 1258 днях. А что необходимо делать, если в нашем файле отсутствуют headerы? Для этого нужно указать специальный параметр header=None pd.read_csv(‘[PATH]’, header=None,names=(‘column1′,’column2′,’column3’))
Посмотреть на конец датасета можно с помощью функции tail
Чтобы посмотреть только названия столбцов, нужно вывести свойство columns.
Посмотреть типы столбцов, а также те, в которых есть пустые значения можно с помощью функции info()
Давайте преобразуем тип столбца Date из object в datetime
df[‘Date’] = pd.to_datetime(df[‘Date’])
print(df.info())
[/python]
Узнать основные статистические значения по числовым признакам можно с помощью describe()
Пока глядя на эту таблицу ничего сказать нельзя.
Изменить тип колонки можно также другим способом.
df[‘Date’] = df[‘Date’].astype(‘datetime64[ns]’)
[/python]
Если Вы хотите, чтобы показались статистики по нечисловым признакам, их нужно указать непосредственно. Указываются их типы.
df.describe(include=[‘object’, ‘bool’])
[/python]
Как правило, признаки можно разделить на три типа. Числовые, булевые, категориальные. Для последних двух признаков можно воспользоваться методом value_counts().
Отсортируем по увеличивающейся цене закрытия и уменьшающейся цене открытия
[python]df.sort_values(by=[‘Close’, ‘Open’], ascending=[True, False]).head(5)
[/python]
Из предыдущих примеров Вам должно было стать ясно, что извлечь значения одного столбца можно с помощью конструкции вида df[‘Close’]. Таким нехитрым способом можно применять разные функции к одному столбцу. Например, можно найти среднее или медиану.
[python]df[‘Close’].median()
[/python]
Логическая индексация
Более мощным инструментом является логическая индексация.
df[P(df[‘Name’])] ,где P — это некоторое логическое условие, проверяемое для каждого элемента столбца Name. Итогом индексации является датафрейм, состоящий только из строк, удовлетворяющих условию P по столбцу Name.
Поэтому, давайте узнаем среднюю стоимость акции в 2016 году (по закрытию).
Разберем вышеуказанную строчку. Мы из dataframe выбрали все записи, у которых Date имеет год, равный 2017. Далее из этих записей мы выбрали только один столбец — цену закрытия Close. После этого, мы посчитали для этой Series среднее значение.
Теперь нужно сделать второй столбец ‘Change’. Он будет указывать изменение цены закрытия по сравнению с предыдущим днем в процентах.
Создадим также текстовый столбец со значениями RISE/FALL/NOT_CHANGE в зависимости от условий
def f(row):
if row[‘Change’]>0.2:
return ‘RISE’
elif row[‘Change’]<-0.2:
return ‘FALL’
else:
return ‘NOT_CHANGE’
Давайте узнаем максимальную стоимость акции в период с 2016 по 2017 год
df[(df[‘Date’].dt.year <= 2017) & (df[‘Date’].dt.year>=2016)][‘High’].max()
Индексация по названиям и порядковым номерам
Датафреймы можно индексировать как по названию столбца или строки, так и по порядковому номеру.
Индексация по названию — loc. Покажи строчки с 0 до 5 для столбцов от Open до Close.
Индексация по номеру — iloc.
Покажи первые шесть строчек в первых трех столбцах.
Первую строчку датафрейма можно отобразить с помощью такой конструкции
Последнюю строчку можно отобразить так
Применение функции к каждому столбцу
Применение функции к каждой ячейке
Метод map может осуществлять замену значений в колонке. Например:
# Создадим словарь для map() и передадим его в качестве аргумента
Также для замены значений используйте метод replace()
Группировка данных
В общем случае группировка данных в Pandas выглядит так:
df.groupby(by=grouping_columns)[columns_to_show].function()
- К датафрейму применяется метод groupby, который разделяет данные по grouping_columns — признаку или набору признаков
- Выбираем нужные нам столбцы (columns_to_show)
- К полученным группам применяется функция или несколько функций
Группирование данных в зависимости от значения признака State и вывод статистикпо трем столбцам в каждой группе.
columns_to_show = [‘Close’, ‘Volume’]
df.groupby([‘State’])[columns_to_show].describe()
Глядя на данную таблицу можно сделать вывод, что акция в период роста или падения имеет больший объем сделок ~ на 20%.
То же самое можно было осуществить используя функцию agg()
columns_to_show = [‘Close’, ‘Volume’]
df.groupby([‘State’])[columns_to_show].agg([np.mean, np.std, np.min, np.max])
Сводные таблицы
Что нужно сделать если необходимо посмотреть, как наблюдения в выборке распределены в контексте двух признаков. Для этого можно построить таблицу сопряженности. Сделать это можно с помощью функции crosstab().
def f(row):
if row[‘Volume’]>2000000:
return ‘HIGH’
else:
return ‘LOW’
df[‘Volume_2’] = df.apply(f, axis=1)
pd.crosstab(df[‘Volume_2’], df[‘State’], normalize=True)
Сводные таблицы
В Pandas для этого используется метод pivot_table. В качестве параметров он принимает:
- values — список переменных, по которым требуется рассчитать требуемые статистики
- index — список переменных, по которым нужно сгруппировать данные
- aggfunc — то, что нужно посчитать по группам — сумму, среднее, максимум, минимум и т.д.
df[«VolumeDiv10»]=df[«Volume»]/100000;
df[«VolumeDiv10»]=df[«VolumeDiv10»].astype(int)
df.head()
df.pivot_table([‘Close’, ‘Open’, ‘Change’], [‘VolumeDiv10′], aggfunc=’mean’)
Преобразование датафреймов
Еще один столбец можно создать с помощью функции insert()
volatility = df[‘High’] — df[‘Low’]
df.insert(loc=len(df.columns), column=’Volatility’, value=volatility)
- Первый аргумент — говорит, что мы должны вставить столбик в конец
- Второй аргумент — название колонки
- Третий аргумент — значения в колонке
Удаление строк и столбцов
df = df.drop([‘Change’], axis=1)
df.drop([1, 2]).head(
Рекомендации
- Для оценки взаимосвязи двух признаков исппользуйте crosstab
- Если мы тратим большое количество времени и увеличиваем accuracy всего лишь на 1%, то скорее всего мы делаем что-то не так.
- Перед тем как строить и обучать сложные модели, проверьте данные и проверьте простые предположения.
- В бизнес-приложениях начинают именно с простых решений, так как важно знать причину появления того или иного результата.