• 琥珀瞳
    了解作者
  • Python
    开发工具
  • 1.2MB
    文件大小
  • rar
    文件格式
  • 0
    收藏次数
  • 10 积分
    下载积分
  • 2
    下载次数
  • 2017-11-20 23:43
    上传日期
SVM算法实例,包括具体的结果,可以在运行完后进行比较
SVM.rar
  • SVM
  • 5.2SVM
  • 5.2SVM.rar
    81.1KB
  • Image [5].png
    1.2KB
  • Image [10].png
    1.4KB
  • Image [8].png
    746B
  • main-qimg-b88037063b9a4cae241ee6b0ab841356.png
    2.8KB
  • Image.png
    13.4KB
  • main-qimg-dff9507297a2320460ff4d9cd5825683.png
    1.4KB
  • Image [4].png
    1.5KB
  • Image [11].png
    1.8KB
  • main-qimg-de8f2ca9c807ee184e2509639fce066d.jpg
    40.4KB
  • Image [12].png
    1.9KB
  • Image [9].png
    1.9KB
  • Image [7].png
    1.1KB
  • Image [6].png
    4.1KB
  • 5.2 支持向量机(SVM)算法(下).html
    10.9KB
  • Image [1].png
    3KB
  • Image [2].png
    1KB
  • Image [3].png
    2.7KB
  • 5.1SVM
  • Image [14].png
    216.5KB
  • Image [5].png
    1.5KB
  • Image [10].png
    492B
  • Image [8].png
    3.3KB
  • images.jpg
    4.7KB
  • 5.1 支持向量机(SVM)算法(上).html
    11.6KB
  • Image.png
    13.4KB
  • Image [4].png
    13.4KB
  • Image [11].png
    2.7KB
  • 220px-Svm_separating_hyperplanes_(SVG).svg.png
    7.3KB
  • images [1].jpg
    5.6KB
  • Image [12].png
    596B
  • Image [9].png
    2.2KB
  • Image [7].png
    1.6KB
  • Image [6].png
    1.6KB
  • Image [13].png
    2.5KB
  • 5.1SVM.rar
    546.9KB
  • Image [1].png
    3.5KB
  • Image [15].png
    270.4KB
  • Image [2].png
    1.2KB
  • Image [3].png
    1.5KB
  • SVMImplementation.py
    4.4KB
  • SKLearnsimple.py
    296B
  • 5.3_支持向量机SVM算法下应用.html
    6.7KB
  • sklearnExample.py
    1.2KB
内容介绍
from __future__ import print_function from time import time import logging import matplotlib.pyplot as plt from sklearn.cross_validation import train_test_split from sklearn.datasets import fetch_lfw_people from sklearn.grid_search import GridSearchCV from sklearn.metrics import classification_report from sklearn.metrics import confusion_matrix from sklearn.decomposition import RandomizedPCA from sklearn.svm import SVC print(__doc__) # Display progress logs on stdout logging.basicConfig(level=logging.INFO, format='%(asctime)s %(message)s') ############################################################################### # Download the data, if not already on disk and load it as numpy arrays lfw_people = fetch_lfw_people(min_faces_per_person=70, resize=0.4) # introspect the images arrays to find the shapes (for plotting) n_samples, h, w = lfw_people.images.shape # for machine learning we use the 2 data directly (as relative pixel # positions info is ignored by this model) X = lfw_people.data n_features = X.shape[1] # the label to predict is the id of the person y = lfw_people.target target_names = lfw_people.target_names n_classes = target_names.shape[0] print("Total dataset size:") print("n_samples: %d" % n_samples) print("n_features: %d" % n_features) print("n_classes: %d" % n_classes) ############################################################################### # Split into a training set and a test set using a stratified k fold # split into a training and testing set X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.25) ############################################################################### # Compute a PCA (eigenfaces) on the face dataset (treated as unlabeled # dataset): unsupervised feature extraction / dimensionality reduction n_components = 150 print("Extracting the top %d eigenfaces from %d faces" % (n_components, X_train.shape[0])) t0 = time() pca = RandomizedPCA(n_components=n_components, whiten=True).fit(X_train) print("done in %0.3fs" % (time() - t0)) eigenfaces = pca.components_.reshape((n_components, h, w)) print("Projecting the input data on the eigenfaces orthonormal basis") t0 = time() X_train_pca = pca.transform(X_train) X_test_pca = pca.transform(X_test) print("done in %0.3fs" % (time() - t0)) ############################################################################### # Train a SVM classification model print("Fitting the classifier to the training set") t0 = time() param_grid = {'C': [1e3, 5e3, 1e4, 5e4, 1e5], 'gamma': [0.0001, 0.0005, 0.001, 0.005, 0.01, 0.1], } clf = GridSearchCV(SVC(kernel='rbf', class_weight='auto'), param_grid) clf = clf.fit(X_train_pca, y_train) print("done in %0.3fs" % (time() - t0)) print("Best estimator found by grid search:") print(clf.best_estimator_) ############################################################################### # Quantitative evaluation of the model quality on the test set print("Predicting people's names on the test set") t0 = time() y_pred = clf.predict(X_test_pca) print("done in %0.3fs" % (time() - t0)) print(classification_report(y_test, y_pred, target_names=target_names)) print(confusion_matrix(y_test, y_pred, labels=range(n_classes))) ############################################################################### # Qualitative evaluation of the predictions using matplotlib def plot_gallery(images, titles, h, w, n_row=3, n_col=4): """Helper function to plot a gallery of portraits""" plt.figure(figsize=(1.8 * n_col, 2.4 * n_row)) plt.subplots_adjust(bottom=0, left=.01, right=.99, top=.90, hspace=.35) for i in range(n_row * n_col): plt.subplot(n_row, n_col, i + 1) plt.imshow(images[i].reshape((h, w)), cmap=plt.cm.gray) plt.title(titles[i], size=12) plt.xticks(()) plt.yticks(()) # plot the result of the prediction on a portion of the test set def title(y_pred, y_test, target_names, i): pred_name = target_names[y_pred[i]].rsplit(' ', 1)[-1] true_name = target_names[y_test[i]].rsplit(' ', 1)[-1] return 'predicted: %s\ntrue: %s' % (pred_name, true_name) prediction_titles = [title(y_pred, y_test, target_names, i) for i in range(y_pred.shape[0])] plot_gallery(X_test, prediction_titles, h, w) # plot the gallery of the most significative eigenfaces eigenface_titles = ["eigenface %d" % i for i in range(eigenfaces.shape[0])] plot_gallery(eigenfaces, eigenface_titles, h, w) plt.show()
评论
    相关推荐
    • SVM分类算法.zip
      包含了svm的一系列分类算法,demo,matlab下使用
    • SVM算法.rar
      实现线性支持向量机算法,并比较其原始函数与对偶形式函数
    • 4.SVM分类算法.rar
      svm算法 matlab基础教程,适合新手学习入门........
    • svm文本分类
      使用当前流行的Java语言,采用SVM算法进行文本分类
    • Python实现SVM分类算法
      Python实现SVM分类算法
    • SVM分类算法代码及实验报告
      压缩包中包括SVM分类算法的实现代码、测试数据以及实验报告
    • 大白话SVM算法课程
      SVM之线性不可分时软间隔算法整体流程15_SVM之线性不可分时数据映射高维解决不可分问题16_SVM之线性不可分时核函数引入17_SVM之线性不可分时核函数讲解18_SVM代码之线性可分时和Logistic回归比较19_SVM代码之基于...
    • SVM算法C++代码
      该C++代码,有助于理解SVM算法,通俗易懂,附带两个标签类,成功实现正确分类,。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
    • SVM分类器代码
      SVM算法的代码,用pyhon实现的,可直接用,很方便,下载即可用!该算法可用于机器学习分类研究,是一种典型的分类算法,非常适合论文实验。
    • C++实现SVM分类算法
      SVM有如下特征:(1)SVM学习问题可以表示为凸优化问题,因此可以利用已知的有效算法发现目标函数...本代码通过C++实现SVM分类算法,并通过SSE实现最优解的快速计算,学习SVM的同学可以参考一下,如有不足,请指正。