Python | AutoKeras | AutoML | 管道 | 顺序结构 | 图形结构 | ResNet模型 | DenseNet模型 | 多类图像分类 | 文本分类 | 结构化数据 | 多标签图像 | 数据并行 | 超参数 | TensorFlow | TensorBoard | 多层感知器 | Jupyter Notebook | Colaboratory | 数据处理 | 探索性数据分析(EDA) | 特佂工程 | scikit-learn | seaborn | NumPy | Pandas | 决策㳔 | 线性回归 | 网络搜索 | Matplotlib | 卷积神经网络CNN | 递归神经网络(RNN)
🏈指点迷津 | Brief要点拓扑
AutoKeras 拓扑
要点
常规机器学习:scikit-learn示例探索性数据分析和数据预处理,线性回归,决策树
图像分类ResNet模型示例,合成数据集DenseNet模型示例
使用Python工具seaborn、matplotlib、pandas、scikit-learn进行特征分析,数据处理
Tensorflow和Keras实现多测感知器、卷积神经网络CNN和递归神经网络RNN及应用示例
AutoKeras案例实现:新闻热点预测、垃圾邮件检测、CIFAR-10图像分类、事故率、MNIST识别、话题分类、情绪分析
自动化机器学习
自动化机器学习是一种自动化各种机器学习模型开发流程的过程,以便数据科学和机器学习方面专业知识有限的个人和组织能够更容易地使用机器学习。 它拥有一组技术和工具,可以自动选择和微调机器学习模型的过程。 其目标是让数据科学专业知识有限的人们更轻松地构建和部署高性能机器学习模型。
它使用户能够将机器学习技术应用于不同的领域,从简单的表格数据分析到图像识别、自然语言处理和预测等更复杂的任务。它不仅仅停留在模型训练上,涵盖了整个生命周期,包括评估、验证、部署以及持续监控和维护。
自动化目标可以自动化构建机器学习模型所涉及的多个步骤。其中一些如下:
数据准备:处理缺失值、缩放特征、编码分类变量以及将数据拆分为训练集和测试集
监控和维护:模型部署后可以根据新数据进行维护和监控
自动机器学习用于简化和自动化将机器学习应用于现实世界问题的端到端过程:
使机器学习可供更广泛的受众使用,包括机器学习专业知识有限的个人。通过自动化复杂的任务,它降低了非数据科学专家的用户的进入门槛。
减少了开发有效的机器学习模型所需的时间和精力。其工具通常提供直观、用户友好的界面或 API,让用户提供数据并接收优化的机器学习模型,而无需深入了解底层算法和技术。
机器学习涉及处理各种算法、超参数和数据预处理技术。机器学习可以自动为特定任务选择最合适的算法和超参数,从而降低用户的复杂性。
擅长自动优化超参数,这对于实现最佳模型性能至关重要。这个过程可能非常耗时并且需要专业知识,因此自动化非常有益。
可用于执行各种机器学习任务,包括分类、回归、聚类、深度学习,甚至预测。 它们能够执行从简单的表格数据分析到更复杂的图片识别或自然语言处理的任务。
使用 AutoKeras 进行图像分类的示例。
import os
import pathlib
import numpy as np
import tensorflow as tf
import autokeras as ak
import warnings
warnings.filterwarnings('ignore')
dataset_url = "https://storage.gapis.com/download.tensorflow.org/example_images/flower_photos.tgz"
data_dir = tf.keras.utils.get_file('flower_photos',
origin=dataset_url,
untar=True)
data_dir = pathlib.Path(data_dir)
batch_size = 32
img_height = 240
img_width = 240
train_data = ak.image_dataset_from_directory(
data_dir,
validation_split=0.15,
subset="training",
seed=23,
image_size=(img_height, img_width),
batch_size=batch_size,
)
test_data = ak.image_dataset_from_directory(
data_dir,
validation_split=0.15,
subset="validation",
seed=23,
image_size=(img_height, img_width),
batch_size=batch_size,
)
输出
Found 3670 files belonging to 5 classes.
Using 3120 files for training.
Found 3670 files belonging to 5 classes.
Using 550 files for validation.
image_classifier = ak.ImageClassifier(num_classes = 5,
multi_label = True,
overwrite=True,
max_trials=1)
image_classifier.fit(train_data, epochs=5)
输出
Search: Running Trial #1
Value |Best Value So Far |Hyperparameter
vanilla |vanilla |image_block_1/block_type
True |True |image_block_1/normalize
False |False |image_block_1/augment
3 |3 |image_block_1/conv_block_1/kernel_size
1 |1 |image_block_1/conv_block_1/num_blocks
2 |2 |image_block_1/conv_block_1/num_layers
True |True |image_block_1/conv_block_1/max_pooling
False |False |image_block_1/conv_block_1/separable
0.25 |0.25 |image_block_1/conv_block_1/dropout
32 |32 |image_block_1/conv_block_1/filters_0_0
64 |64 |image_block_1/conv_block_1/filters_0_1
flatten |flatten |classification_head_1/spatial_reduction_1/reduction_type
0.5 |0.5 |classification_head_1/dropout
adam |adam |optimizer
0.001 |0.001 |learning_rate
Trial 1 Complete [00h 08m 02s]
val_loss: 0.3753296434879303
Best val_loss So Far: 0.3753296434879303
Total elapsed time: 00h 08m 02s
INFO:tensorflow:Oracle triggered exit
Epoch 1/5
98/98 [==============================] - 110s 1s/step - loss: 0.9031 - accuracy: 0.4234
Epoch 2/5
98/98 [==============================] - 114s 1s/step - loss: 0.3507 - accuracy: 0.6224
Epoch 3/5
98/98 [==============================] - 109s 1s/step - loss: 0.2060 - accuracy: 0.8490
Epoch 4/5
98/98 [==============================] - 112s 1s/step - loss: 0.0995 - accuracy: 0.9497
Epoch 5/5
98/98 [==============================] - 106s 1s/step - loss: 0.0795 - accuracy: 0.9686
image_classifier.evaluate(test_data)
输出
18/18 [==============================] - 5s 276ms/step - loss: 0.5662 - accuracy: 0.5600
[0.5662239789962769, 0.5600000023841858]
from PIL import Image
image_path = "sunflower.jpeg"
new_image = Image.open(image_path)
resized_image = new_image.resize((img_height, img_width))
resized_image
preprocessed_image = np.expand_dims(resized_image, axis=0)
predictions = image_classifier.predict(preprocessed_image)
print(predictions)
输出
1/1 [==============================] - 0s 48ms/step
1/1 [==============================] - 0s 16ms/step
[['sunflowers']]