Version 0.16#
Version 0.16.1#
14. April 2015
Änderungsprotokoll#
Fehlerbehebungen#
Ermöglicht die Eingabe von Daten, die größer als
block_sizesind, incovariance.LedoitWolfvon Andreas Müller.Behebt einen Fehler in der Deduplizierung von
isotonic.IsotonicRegression, der zu instabilen Ergebnissen incalibration.CalibratedClassifierCVführte, von Jan Hendrik Metzen.Korrigiert die Sortierung von Labels in
preprocessing.label_binarizevon Michael Heilman.Behebt verschiedene Stabilitäts- und Konvergenzprobleme in
cross_decomposition.CCAundcross_decomposition.PLSCanonicalvon Andreas MüllerBehebt einen Fehler in
cluster.KMeans, wennprecompute_distances=Falsebei Fortran-geordneten Daten gesetzt ist.Behebt eine Verlangsamung in
ensemble.RandomForestClassifier’spredictundpredict_probavon Andreas Müller.Behebt eine Regression, bei der
utils.shuffleListen und DataFrames in Arrays umwandelte, von Olivier Grisel
Version 0.16#
26. März 2015
Highlights#
Geschwindigkeitsverbesserungen (insbesondere in
cluster.DBSCAN), reduzierter Speicherbedarf, Fehlerbehebungen und bessere Standardeinstellungen.Multinomiale Logistische Regression und ein Pfadalgorithmus in
linear_model.LogisticRegressionCV.Out-of-Core-Lernen von PCA über
decomposition.IncrementalPCA.Wahrscheinlichkeitskalibrierung von Klassifikatoren mittels
calibration.CalibratedClassifierCV.Clustering-Methode
cluster.Birchfür große Datensätze.Skalierbare ungefähre Suche nach nächsten Nachbarn mit Locality-Sensitive Hashing Forests in
neighbors.LSHForest.Verbesserte Fehlermeldungen und bessere Validierung bei Verwendung fehlerhafter Eingabedaten.
Robustere Integration mit Pandas DataFrames.
Änderungsprotokoll#
Neue Funktionen#
Die neue Klasse
neighbors.LSHForestimplementiert Locality-Sensitive Hashing für die Suche nach ungefähren nächsten Nachbarn. Von Maheshakya Wijewardena.Hinzugefügt wurde
svm.LinearSVR. Diese Klasse verwendet die liblinear-Implementierung von Support Vector Regression, die bei großen Stichprobengrößen wesentlich schneller ist alssvm.SVRmit linearem Kernel. Von Fabian Pedregosa und Qiang Luo.Inkrementelles Training für
GaussianNB.Hinzugefügte Unterstützung für
sample_weightfürdummy.DummyClassifierunddummy.DummyRegressor. Von Arnaud Joly.Hinzugefügte Metrik
metrics.label_ranking_average_precision_score. Von Arnaud Joly.Hinzugefügte Metrik
metrics.coverage_error. Von Arnaud Joly.Hinzugefügt wurde
linear_model.LogisticRegressionCV. Von Manoj Kumar, Fabian Pedregosa, Gael Varoquaux und Alexandre Gramfort.Hinzugefügter Konstruktorparameter
warm_start, um es jedem trainierten Forest-Modell zu ermöglichen, inkrementell zusätzliche Bäume zu wachsen. Von Laurent Direr.Hinzugefügte Unterstützung für
sample_weightfürensemble.GradientBoostingClassifierundensemble.GradientBoostingRegressor. Von Peter Prettenhofer.Hinzugefügt wurde
decomposition.IncrementalPCA, eine Implementierung des PCA-Algorithmus, die Out-of-Core-Lernen mit einerpartial_fitMethode unterstützt. Von Kyle Kastner.Durchschnittliches SGD für
SGDClassifierundSGDRegressor. Von Danny Sullivan.Hinzugefügte Funktion
cross_val_predict, die kreuzvalidierte Schätzungen berechnet. Von Luis Pedro CoelhoHinzugefügt wurde
linear_model.TheilSenRegressor, ein robuster, medianbasierter Schätzer. Von Florian Wilhelm.Hinzugefügt wurde
metrics.median_absolute_error, eine robuste Metrik. Von Gael Varoquaux und Florian Wilhelm.Hinzugefügt wurde
cluster.Birch, ein Online-Clustering-Algorithmus. Von Manoj Kumar, Alexandre Gramfort und Joel Nothman.Hinzugefügte Schrumpfungsunterstützung für
discriminant_analysis.LinearDiscriminantAnalysismit zwei neuen Lösungsmethoden. Von Clemens Brunner und Martin Billinger.Hinzugefügt wurde
kernel_ridge.KernelRidge, eine Implementierung der Kernel-Ridge-Regression. Von Mathieu Blondel und Jan Hendrik Metzen.Alle Lösungsmethoden in
linear_model.Ridgeunterstützen jetztsample_weight. Von Mathieu Blondel.Hinzugefügt wurde
cross_validation.PredefinedSplitzur Kreuzvalidierung mit vordefinierten Benutzer-Kreuzvalidierungs-Folds. Von Thomas Unterthiner.Hinzugefügt wurde
calibration.CalibratedClassifierCV, ein Ansatz zur Kalibrierung der vorhergesagten Wahrscheinlichkeiten eines Klassifikators. Von Alexandre Gramfort, Jan Hendrik Metzen, Mathieu Blondel und Balazs Kegl.
Verbesserungen#
Option
return_distanceinhierarchical.ward_treehinzugefügt, um Abstände zwischen Knoten für sowohl strukturierte als auch unstrukturierte Versionen des Algorithmus zurückzugeben. Von Matteo Visconti di Oleggio Castello. Dieselbe Option wurde inhierarchical.linkage_treehinzugefügt. Von Manoj KumarUnterstützung für Stichgewichtungen in Scorer-Objekten hinzugefügt. Metriken mit Unterstützung für Stichgewichtungen profitieren automatisch davon. Von Noel Dawe und Vlad Niculae.
Hinzugefügte Solver-Unterstützung
newton-cgundlbfgsinlinear_model.LogisticRegression. Von Manoj Kumar.Parameter
selection="random"hinzugefügt, um stochastisches Koordinatengefälle fürlinear_model.Lasso,linear_model.ElasticNetund verwandte zu implementieren. Von Manoj Kumar.Hinzugefügter Parameter
sample_weightzumetrics.jaccard_similarity_scoreundmetrics.log_loss. Von Jatin Shah.Unterstützung für die spärliche multilabel-Indikator-Darstellung in
preprocessing.LabelBinarizerundmulticlass.OneVsRestClassifier(von Hamzeh Alsalhi mit Dank an Rohit Sivaprasad), sowie in Auswertungsmetriken (von Joel Nothman).Hinzugefügter Parameter
sample_weightzumetrics.jaccard_similarity_score. VonJatin Shah.Unterstützung für Multiclass in
metrics.hinge_losshinzugefügt. Optionaler Parameterlabels=Nonehinzugefügt. VonSaurabh Jha.Hinzugefügter Parameter
sample_weightzumetrics.hinge_loss. VonSaurabh Jha.Option
multi_class="multinomial"inlinear_model.LogisticRegressionhinzugefügt, um einen Logistische-Regression-Solver zu implementieren, der den Kreuzentropie- oder multinomialen Verlust minimiert, anstatt der standardmäßigen One-vs-Rest-Einstellung. Unterstützt die Solverlbfgsundnewton-cg. Von Lars Buitinck und Manoj Kumar. Solver-Optionnewton-cgvon Simon Wu.DictVectorizerkann nunfit_transformauf einem Iterable in einem einzigen Durchgang durchführen, wenn die Optionsort=Falseangegeben wird. Von Dan Blanchard.model_selection.GridSearchCVundmodel_selection.RandomizedSearchCVkönnen nun so konfiguriert werden, dass sie mit Estimators arbeiten, die bei einzelnen Folds fehlschlagen und Fehler auslösen können. Diese Option wird durch den Parametererror_scoregesteuert. Dies beeinträchtigt keine Fehler, die beim erneuten Anpassen ausgelöst werden. Von Michal Romaniuk.Parameter
digitszumetrics.classification_reporthinzugefügt, um dem Bericht die Anzeige von Gleitkommazahlen mit unterschiedlicher Genauigkeit zu ermöglichen. Von Ian Gilmore.Hinzugefügte Vorhersagestrategie für Quantile zum
dummy.DummyRegressor. Von Aaron Staple.Option
handle_unknownzupreprocessing.OneHotEncoderhinzugefügt, um unbekannte kategorische Merkmale bei der Transformation besser zu behandeln. Von Manoj Kumar.Unterstützung für spärliche Eingabedaten für Entscheidungsbäume und ihre Ensembles hinzugefügt. Von Fares Hedyati und Arnaud Joly.
Optimierung von
cluster.AffinityPropagationdurch Reduzierung der Anzahl von Speicherzuweisungen großer temporärer Datenstrukturen. Von Antony Lee.Parallelisierung der Berechnung von Feature-Wichtigkeiten in Random Forests. Von Olivier Grisel und Arnaud Joly.
Attribut
n_iter_hinzugefügt zu Estimators, die einmax_iterAttribut in ihrem Konstruktor akzeptieren. Von Manoj Kumar.Entscheidungsfunktion für
multiclass.OneVsOneClassifierhinzugefügt. Von Raghav RV und Kyle Beauchamp.neighbors.kneighbors_graphundradius_neighbors_graphunterstützen nicht-euklidische Metriken. Von Manoj KumarDer Parameter
connectivityincluster.AgglomerativeClusteringund Familie akzeptiert nun aufrufbare Funktionen, die eine Konnektivitätsmatrix zurückgeben. Von Manoj Kumar.Spärliche Unterstützung für
metrics.pairwise.paired_distances. Von Joel Nothman.cluster.DBSCANunterstützt nun spärliche Eingaben und Stichgewichtungen und wurde optimiert: Die innere Schleife wurde in Cython neu geschrieben und Radius-Nachbarschaftsabfragen werden nun stapelweise berechnet. Von Joel Nothman und Lars Buitinck.Parameter
class_weighthinzugefügt, um Stichproben automatisch nach Klassenfequenz zu gewichten fürensemble.RandomForestClassifier,tree.DecisionTreeClassifier,ensemble.ExtraTreesClassifierundtree.ExtraTreeClassifier. Von Trevor Stephens.grid_search.RandomizedSearchCVführt nun Stichproben ohne Ersatz durch, wenn alle Parameter als Listen angegeben werden. Von Andreas Müller.Parallelisierte Berechnung von
metrics.pairwise_distanceswird nun für SciPy-Metriken und benutzerdefinierte aufrufbare Funktionen unterstützt. Von Joel Nothman.Ermöglicht das Anpassen und Bewerten aller Clustering-Algorithmen in
pipeline.Pipeline. Von Andreas Müller.Robusteres Seeden und verbesserte Fehlermeldungen in
cluster.MeanShiftvon Andreas Müller.Das Stoppkriterium für
mixture.GMM,mixture.DPGMMundmixture.VBGMMwurde weniger von der Anzahl der Stichproben abhängig gemacht, indem die durchschnittliche Änderung der Log-Likelihood statt ihrer Summe über alle Stichproben begrenzt wird. Von Hervé Bredin.Das Ergebnis von
manifold.spectral_embeddingwurde durch Umkehren des Vorzeichens von Eigenvektoren deterministisch gemacht. Von Hasil Sharma.Signifikante Verbesserungen der Leistung und des Speicherverbrauchs in
preprocessing.PolynomialFeatures. Von Eric Martin.Verbesserungen der numerischen Stabilität für
preprocessing.StandardScalerundpreprocessing.scale. Von Nicolas Goixsvm.SVC, das auf spärliche Eingaben trainiert wird, implementiert nundecision_function. Von Rob Zinkov und Andreas Müller.cross_validation.train_test_splitbehält nun den Eingabetyp bei, anstatt ihn in NumPy-Arrays umzuwandeln.
Dokumentationsverbesserungen#
Beispiel für die Verwendung von
pipeline.FeatureUnionfür heterogene Eingaben hinzugefügt. Von Matt TerryDie Dokumentation zu Scorern wurde verbessert, um die Behandlung von Verlustfunktionen hervorzuheben. Von Matt Pico.
Eine Diskrepanz zwischen der liblinear-Ausgabe und den Wrappern von scikit-learn wird nun vermerkt. Von Manoj Kumar.
Verbesserte Dokumentationsgenerierung: Beispiele, die sich auf eine Klasse oder Funktion beziehen, werden nun in einer Galerie auf der API-Referenzseite der Klasse/Funktion angezeigt. Von Joel Nothman.
Explizitere Dokumentation von Stichprobengeneratoren und Datentransformationen. Von Joel Nothman.
sklearn.neighbors.BallTreeundsklearn.neighbors.KDTreezeigten zuvor auf leere Seiten, die besagten, dass sie Aliase von BinaryTree seien. Dies wurde korrigiert, um die korrekten Klassen-Dokumente anzuzeigen. Von Manoj Kumar.Silhouette-Plots für die Analyse des KMeans-Clustering unter Verwendung von
metrics.silhouette_samplesundmetrics.silhouette_scorehinzugefügt. Siehe Auswahl der Anzahl von Clustern mit Silhouette-Analyse auf KMeans-Clustering
Fehlerbehebungen#
Meta-Estimators unterstützen jetzt Ducktyping für das Vorhandensein von
decision_function,predict_probaund anderen Methoden. Dies behebt das Verhalten vongrid_search.GridSearchCV,grid_search.RandomizedSearchCV,pipeline.Pipeline,feature_selection.RFE,feature_selection.RFECVbei Verschachtelung. Von Joel NothmanDas Attribut
scoringvon Grid-Search- und Kreuzvalidierungsmethoden wird nicht mehr ignoriert, wenn eingrid_search.GridSearchCVals Basis-Estimator übergeben wird oder der Basis-Estimator kein predict hat.Die Funktion
hierarchical.ward_treegibt nun die Kinder in der gleichen Reihenfolge für die strukturierte und unstrukturierte Version zurück. Von Matteo Visconti di Oleggio Castello.feature_selection.RFECVbehandelt nun korrekt Fälle, in denenstepungleich 1 ist. Von Nikolay MayorovDie
decomposition.PCAmacht nun die Entweisserung in ihrerinverse_transformrückgängig. Außerdem haben ihrecomponents_nun immer eine Einheitslänge. Von Michael Eickenberg.Behebt unvollständigen Download des Datensatzes, wenn
datasets.download_20newsgroupsaufgerufen wird. Von Manoj Kumar.Diverse Korrekturen am Gaußprozess-Subpaket von Vincent Dubourg und Jan Hendrik Metzen.
Der Aufruf von
partial_fitmitclass_weight=='auto'löst eine entsprechende Fehlermeldung aus und schlägt eine Umgehungslösung vor. Von Danny Sullivan.RBFSamplermitgamma=gapproximierte bisherrbf_kernelmitgamma=g/2.; die Definition vongammaist nun konsistent, was Ihre Ergebnisse erheblich ändern kann, wenn Sie einen festen Wert verwenden. (Wenn Sie übergammakreuzvalidiert haben, spielt das wahrscheinlich keine große Rolle.) Von Dougal Sutherland.Pipeline-Objekt delegiert das Attribut
classes_an den zugrundeliegenden Estimator. Dies ermöglicht beispielsweise das Bagging eines Pipeline-Objekts. Von Arnaud Jolyneighbors.NearestCentroidverwendet nun den Median als Zentroid, wenn die Metrik aufmanhattangesetzt ist. Zuvor wurde der Mittelwert verwendet. Von Manoj KumarBehebt numerische Stabilitätsprobleme in
linear_model.SGDClassifierundlinear_model.SGDRegressordurch Clipping großer Gradienten und Sicherstellung, dass die Gewichtungs-Reskalierung immer positiv ist (bei großer l2-Regularisierung und großen Lernratenwerten). Von Olivier GriselWenn
compute_full_treeauf „auto“ gesetzt ist, wird der vollständige Baum bei einer hohen Anzahl von Clustern aufgebaut und bei einer niedrigen Anzahl von Clustern frühzeitig gestoppt, während das Verhalten incluster.AgglomerativeClustering(und verwandten Klassen) umgekehrt sein sollte. Dies wurde behoben von Manoj KumarBehebt träge Zentrierung von Daten in
linear_model.enet_pathundlinear_model.lasso_path. Sie war um eins zentriert. Sie wurde auf die Zentrierung um den Ursprung geändert. Von Manoj KumarBehebt die Handhabung von vorab berechneten Affinitätsmatrizen in
cluster.AgglomerativeClusteringbei Verwendung von Konnektivitätsbeschränkungen. Von Cathy DengKorrigiert die Handhabung von
partial_fitfürclass_priorfürsklearn.naive_bayes.MultinomialNBundsklearn.naive_bayes.BernoulliNB. Von Trevor Stephens.Behebt einen Absturz in
metrics.precision_recall_fscore_supportbei Verwendung unsortierterlabelsim Multi-Label-Setting. Von Andreas Müller.Vermeidet das Überspringen des ersten nächsten Nachbarn in den Methoden
radius_neighbors,kneighbors,kneighbors_graphundradius_neighbors_graphinsklearn.neighbors.NearestNeighborsund Familie, wenn die Abfragedaten nicht mit den Fit-Daten übereinstimmen. Von Manoj Kumar.Behebt die Log-Dichteberechnung in
mixture.GMMmit gebundener Kovarianz. Von Will DawsonBehebt einen Skalierungsfehler in
feature_selection.SelectFdr, bei dem ein Faktorn_featuresfehlte. Von Andrew TullochBehebt Division durch Null in
neighbors.KNeighborsRegressorund verwandten Klassen bei Verwendung von Distanzgewichtung und identischen Datenpunkten. Von Garret-R.Behebt Rundungsfehler bei nicht-positiv-definiten Kovarianzmatrizen in GMM. Von Alexis Mignon.
Behebt einen Fehler bei der Berechnung bedingter Wahrscheinlichkeiten in
naive_bayes.BernoulliNB. Von Hanna Wallach.Die Methode
radius_neighborsvonneighbors.NearestNeighborsgibt nun die Samples auf der Grenze füralgorithm='brute'zurück. Von Yan Yi.Kehrt das Vorzeichen von
dual_coef_insvm.SVCum, um es mit der Dokumentation unddecision_functionkonsistent zu machen. Von Artem Sobolev.Behebt die Handhabung von Gleichständen in
isotonic.IsotonicRegression. Wir verwenden nun den gewichteten Durchschnitt der Ziele (sekundäre Methode). Von Andreas Müller und Michael Bommarito.
Zusammenfassung der API-Änderungen#
GridSearchCVundcross_val_scoreund andere Meta-Estimators konvertieren pandas DataFrames nicht mehr in Arrays, was DataFrame-spezifische Operationen in benutzerdefinierten Estimators ermöglicht.multiclass.fit_ovr,multiclass.predict_ovr,predict_proba_ovr,multiclass.fit_ovo,multiclass.predict_ovo,multiclass.fit_ecocundmulticlass.predict_ecocsind veraltet. Verwenden Sie stattdessen die zugrundeliegenden Estimators.Nearest Neighbors Estimators haben früher beliebige Schlüsselwortargumente angenommen und diese an ihre Distanzmetrik weitergegeben. Dies wird in scikit-learn 0.18 nicht mehr unterstützt; verwenden Sie stattdessen das Argument
metric_params.- Der Parameter
n_jobsder Methode fit wurde in den Konstruktor des LinearRegression-Klasse verschoben.
- Der Parameter
Die Methode
predict_probavonmulticlass.OneVsRestClassifiergibt nun zwei Wahrscheinlichkeiten pro Sample im Multiklassenfall zurück; dies ist konsistent mit anderen Estimators und der Methodendokumentation, aber frühere Versionen gaben versehentlich nur die positive Wahrscheinlichkeit zurück. Behoben von Will Lamond und Lars Buitinck.Ändert den Standardwert von precompute in
linear_model.ElasticNetundlinear_model.Lassoauf False. Das Setzen von precompute auf „auto“ erwies sich als langsamer, wenn n_samples > n_features war, da die Berechnung der Gram-Matrix rechenintensiv ist und den Vorteil des Fittens der Gram für nur ein Alpha überwiegt.precompute="auto"ist nun veraltet und wird in 0.18 entfernt. Von Manoj Kumar.Exponiert die Option
positiveinlinear_model.enet_pathundlinear_model.enet_path, die Koeffizienten auf positiv beschränkt. Von Manoj Kumar.Benutzer sollten nun einen expliziten
average-Parameter ansklearn.metrics.f1_score,sklearn.metrics.fbeta_score,sklearn.metrics.recall_scoreundsklearn.metrics.precision_scoreübergeben, wenn Multiklassen- oder Multilabel-Klassifizierung (d.h. nicht binär) durchgeführt wird. Von Joel Nothman.scoring-Parameter für Kreuzvalidierung akzeptiert nun'f1_micro','f1_macro'oder'f1_weighted'.'f1'ist nun nur noch für die binäre Klassifizierung. Ähnliche Änderungen gelten für'precision'und'recall'. Von Joel Nothman.Die Parameter
fit_intercept,normalizeundreturn_modelsinlinear_model.enet_pathundlinear_model.lasso_pathwurden entfernt. Sie waren seit 0.14 veraltet.Von nun an lösen alle Estimators konsistent
NotFittedErroraus, wenn eine derpredict-ähnlichen Methoden aufgerufen wird, bevor das Modell trainiert wurde. Von Raghav RV.Die Validierung von Eingabedaten wurde für eine konsistentere Eingabevalidierung überarbeitet. Die Funktion
check_arrayswurde durchcheck_arrayundcheck_X_yersetzt. Von Andreas Müller.Erlaubt
X=Nonein den Methodenradius_neighbors,kneighbors,kneighbors_graphundradius_neighbors_graphinsklearn.neighbors.NearestNeighborsund Familie. Wenn auf None gesetzt, vermeidet dies für jedes Sample, das Sample selbst als ersten nächsten Nachbarn zu setzen. Von Manoj Kumar.Fügt den Parameter
include_selfinneighbors.kneighbors_graphundneighbors.radius_neighbors_graphhinzu, der vom Benutzer explizit gesetzt werden muss. Wenn auf True gesetzt, wird das Sample selbst als erster nächster Nachbar betrachtet.Der Parameter
threshist zugunsten des neuen ParameterstolinGMM,DPGMMundVBGMMveraltet. Siehe AbschnittEnhancementsfür Details. Von Hervé Bredin.Estimators behandeln Eingaben mit dtype object als numerisch, wenn möglich. Von Andreas Müller
Estimators lösen nun konsistent
ValueErroraus, wenn sie auf leere Daten trainiert werden (weniger als 1 Sample oder weniger als 1 Feature für 2D-Input). Von Olivier Grisel.Die Option
shufflevonlinear_model.SGDClassifier,linear_model.SGDRegressor,linear_model.Perceptron,linear_model.PassiveAggressiveClassifierundlinear_model.PassiveAggressiveRegressorsteht nun standardmäßig aufTrue.cluster.DBSCANverwendet nun eine deterministische Initialisierung. Der Parameterrandom_stateist veraltet. Von Erich Schubert.
Code-Mitarbeiter#
A. Flaxman, Aaron Schumacher, Aaron Staple, abhishek thakur, Akshay, akshayah3, Aldrian Obaja, Alexander Fabisch, Alexandre Gramfort, Alexis Mignon, Anders Aagaard, Andreas Mueller, Andreas van Cranenburgh, Andrew Tulloch, Andrew Walker, Antony Lee, Arnaud Joly, banilo, Barmaley.exe, Ben Davies, Benedikt Koehler, bhsu, Boris Feld, Borja Ayerdi, Boyuan Deng, Brent Pedersen, Brian Wignall, Brooke Osborn, Calvin Giles, Cathy Deng, Celeo, cgohlke, chebee7i, Christian Stade-Schuldt, Christof Angermueller, Chyi-Kwei Yau, CJ Carey, Clemens Brunner, Daiki Aminaka, Dan Blanchard, danfrankj, Danny Sullivan, David Fletcher, Dmitrijs Milajevs, Dougal J. Sutherland, Erich Schubert, Fabian Pedregosa, Florian Wilhelm, floydsoft, Félix-Antoine Fortin, Gael Varoquaux, Garrett-R, Gilles Louppe, gpassino, gwulfs, Hampus Bengtsson, Hamzeh Alsalhi, Hanna Wallach, Harry Mavroforakis, Hasil Sharma, Helder, Herve Bredin, Hsiang-Fu Yu, Hugues SALAMIN, Ian Gilmore, Ilambharathi Kanniah, Imran Haque, isms, Jake VanderPlas, Jan Dlabal, Jan Hendrik Metzen, Jatin Shah, Javier López Peña, jdcaballero, Jean Kossaifi, Jeff Hammerbacher, Joel Nothman, Jonathan Helmus, Joseph, Kaicheng Zhang, Kevin Markham, Kyle Beauchamp, Kyle Kastner, Lagacherie Matthieu, Lars Buitinck, Laurent Direr, leepei, Loic Esteve, Luis Pedro Coelho, Lukas Michelbacher, maheshakya, Manoj Kumar, Manuel, Mario Michael Krell, Martin, Martin Billinger, Martin Ku, Mateusz Susik, Mathieu Blondel, Matt Pico, Matt Terry, Matteo Visconti dOC, Matti Lyra, Max Linke, Mehdi Cherti, Michael Bommarito, Michael Eickenberg, Michal Romaniuk, MLG, mr.Shu, Nelle Varoquaux, Nicola Montecchio, Nicolas, Nikolay Mayorov, Noel Dawe, Okal Billy, Olivier Grisel, Óscar Nájera, Paolo Puggioni, Peter Prettenhofer, Pratap Vardhan, pvnguyen, queqichao, Rafael Carrascosa, Raghav R V, Rahiel Kasim, Randall Mason, Rob Zinkov, Robert Bradshaw, Saket Choudhary, Sam Nicholls, Samuel Charron, Saurabh Jha, sethdandridge, sinhrks, snuderl, Stefan Otte, Stefan van der Walt, Steve Tjoa, swu, Sylvain Zimmer, tejesh95, terrycojones, Thomas Delteil, Thomas Unterthiner, Tomas Kazmar, trevorstephens, tttthomasssss, Tzu-Ming Kuo, ugurcaliskan, ugurthemaster, Vinayak Mehta, Vincent Dubourg, Vjacheslav Murashkin, Vlad Niculae, wadawson, Wei Xue, Will Lamond, Wu Jiang, x0l, Xinfan Meng, Yan Yi, Yu-Chin