Version 1.0#

Für eine kurze Beschreibung der wichtigsten Highlights des Releases verweisen wir auf Release Highlights für scikit-learn 1.0.

Legende für Changelogs

  • Hauptmerkmal etwas Großes, das Sie vorher nicht tun konnten.

  • Merkmal etwas, das Sie vorher nicht tun konnten.

  • Effizienz Ein bestehendes Merkmal erfordert nun möglicherweise weniger Rechenleistung oder Speicher.

  • Verbesserung eine sonstige kleinere Verbesserung.

  • Korrektur Etwas, das zuvor nicht wie dokumentiert – oder nach vernünftigen Erwartungen – funktionierte, sollte nun funktionieren.

  • API-Änderung Sie müssen Ihren Code ändern, um in Zukunft die gleiche Wirkung zu erzielen; oder ein Merkmal wird in Zukunft entfernt.

Version 1.0.2#

Dezember 2021

  • Korrektur cluster.Birch, feature_selection.RFECV, ensemble.RandomForestRegressor, ensemble.RandomForestClassifier, ensemble.GradientBoostingRegressor und ensemble.GradientBoostingClassifier lösen keine Warnung mehr aus, wenn sie auf einem pandas DataFrame trainiert werden. #21578 von Thomas Fan.

Änderungsprotokoll#

sklearn.cluster#

  • Korrektur Eine Endlosschleife in cluster.SpectralClustering wurde behoben, indem ein Iterationszähler von try nach except verschoben wurde. #21271 von Tyler Martin.

sklearn.datasets#

  • Korrektur datasets.fetch_openml ist nun threadsicher. Daten werden zuerst in einen temporären Unterordner heruntergeladen und dann umbenannt. #21833 von Siavash Rezazadeh.

sklearn.decomposition#

  • Korrektur Die Einschränkung für die Zielfunktion von decomposition.DictionaryLearning, decomposition.MiniBatchDictionaryLearning, decomposition.SparsePCA und decomposition.MiniBatchSparsePCA wurde korrigiert, um konvex zu sein und dem zitierten Artikel zu entsprechen. #19210 von Jérémie du Boisberranger.

sklearn.ensemble#

  • Korrektur ensemble.RandomForestClassifier, ensemble.RandomForestRegressor, ensemble.ExtraTreesClassifier, ensemble.ExtraTreesRegressor und ensemble.RandomTreesEmbedding lösen nun einen ValueError aus, wenn bootstrap=False ist und max_samples nicht None ist. #21295 Haoyin Xu.

  • Korrektur Ein Fehler in ensemble.GradientBoostingClassifier wurde behoben, bei dem die exponentielle Verlustfunktion den positiven Gradienten anstelle des negativen berechnete. #22050 von Guillaume Lemaitre.

sklearn.feature_selection#

  • Korrektur feature_selection.SelectFromModel wurde durch Verbesserung der Unterstützung für Basis-Schätzer, die feature_names_in_ nicht setzen, korrigiert. #21991 von Thomas Fan.

sklearn.impute#

  • Korrektur Ein Fehler in linear_model.RidgeClassifierCV wurde behoben, bei dem die Methode predict einen argmax auf den Scores der decision_function durchführte, anstatt die multilabel-Indikatormatrix zurückzugeben. #19869 von Guillaume Lemaitre.

sklearn.linear_model#

  • Korrektur linear_model.LassoLarsIC berechnet nun korrekt AIC und BIC. Es wird nun ein Fehler ausgelöst, wenn n_features > n_samples ist und die Rauschvarianz nicht angegeben ist. #21481 von Guillaume Lemaitre und Andrés Babino.

sklearn.manifold#

  • Korrektur Ein unnötiger Fehler beim Trainieren von manifold.Isomap mit einer vordefinierten dichten Distanzmatrix, bei der der Nachbarknoten mehrere getrennte Komponenten hat, wurde behoben. #21915 von Tom Dupre la Tour.

sklearn.metrics#

  • Korrektur Alle Unterklassen von sklearn.metrics.DistanceMetric unterstützen nun korrekt schreibgeschützte Pufferattribute. Dies behebt eine Regression, die in Version 1.0.0 im Vergleich zu 0.24.2 eingeführt wurde. #21694 von Julien Jerphanion.

  • Korrektur Alle sklearn.metrics.MinkowskiDistance akzeptieren nun einen Gewichtsparameter, der es ermöglicht, Code zu schreiben, der sowohl mit SciPy 1.8 als auch mit früheren Versionen konsistent funktioniert. Dies bedeutet wiederum, dass alle nachbarschaftsbasierten Schätzer (außer denen, die algorithm="kd_tree" verwenden) nun einen Gewichtsparameter mit metric="minkowski" akzeptieren, um Ergebnisse zu liefern, die immer konsistent mit scipy.spatial.distance.cdist sind. #21741 von Olivier Grisel.

sklearn.multiclass#

  • Korrektur multiclass.OneVsRestClassifier.predict_proba gibt keinen Fehler mehr aus, wenn auf konstanten ganzzahligen Zielen trainiert wird. #21871 von Thomas Fan.

sklearn.neighbors#

  • Korrektur neighbors.KDTree und neighbors.BallTree unterstützen nun korrekt schreibgeschützte Pufferattribute. #21845 von Thomas Fan.

sklearn.preprocessing#

  • Korrektur Behebt einen Kompatibilitätsfehler mit NumPy 1.22 in preprocessing.OneHotEncoder. #21517 von Thomas Fan.

sklearn.tree#

  • Korrektur Verhindert, dass tree.plot_tree außerhalb der Grenzen der Abbildung zeichnet. #21917 von Thomas Fan.

  • Korrektur Unterstützung für das Laden von Pickles von Entscheidungsbaummodellen, wenn das Pickle auf einer Plattform mit anderer Bitbreite erstellt wurde. Ein typisches Beispiel ist das Trainieren und Pickeln des Modells auf einer 64-Bit-Maschine und das Laden des Modells auf einer 32-Bit-Maschine zur Vorhersage. #21552 von Loïc Estève.

sklearn.utils#

  • Korrektur utils.estimator_html_repr maskiert nun alle Schätzerbeschreibungen in der generierten HTML-Datei. #21493 von Aurélien Geron.

Version 1.0.1#

Oktober 2021

Behobene Modelle#

  • Korrektur Nicht-Fit-Methoden in den folgenden Klassen lösen keine UserWarning aus, wenn sie auf DataFrames mit gültigen Feature-Namen trainiert werden: covariance.EllipticEnvelope, ensemble.IsolationForest, ensemble.AdaBoostClassifier, neighbors.KNeighborsClassifier, neighbors.KNeighborsRegressor, neighbors.RadiusNeighborsClassifier, neighbors.RadiusNeighborsRegressor. #21199 von Thomas Fan.

sklearn.calibration#

  • Korrektur calibration.CalibratedClassifierCV wurde korrigiert, um sample_weight bei der Berechnung der Basis-Schätzer-Vorhersage zu berücksichtigen, wenn ensemble=False. #20638 von Julien Bohné.

  • Korrektur Ein Fehler in calibration.CalibratedClassifierCV mit method="sigmoid" wurde behoben, der sample_weight bei der Berechnung der bayesschen Prioren ignorierte. #21179 von Guillaume Lemaitre.

sklearn.cluster#

  • Korrektur Ein Fehler in cluster.KMeans wurde behoben, der Reproduzierbarkeit und Äquivalenz zwischen dünnbesetzten und dichten Eingaben sicherstellt. #21195 von Jérémie du Boisberranger.

sklearn.ensemble#

  • Korrektur Ein Fehler, der in seltenen Fällen zu einem Segfault bei ensemble.HistGradientBoostingClassifier und ensemble.HistGradientBoostingRegressor führen konnte, wurde behoben. #21130 Christian Lorentzen.

sklearn.gaussian_process#

  • Korrektur y_std wird mit Multi-Target in sklearn.gaussian_process.GaussianProcessRegressor ordnungsgemäß berechnet, was eine ordnungsgemäße Normalisierung im Multi-Target-Szenario ermöglicht. #20761 von Patrick de C. T. R. Ferreira.

sklearn.feature_extraction#

  • Effizienz Eine Effizienzregression, die in Version 1.0.0 in der transform-Methode von feature_extraction.text.CountVectorizer eingeführt wurde, wurde behoben, die nicht mehr auf Großbuchstaben im bereitgestellten Vokabular prüft. #21251 von Jérémie du Boisberranger.

  • Korrektur Ein Fehler in feature_extraction.text.CountVectorizer und feature_extraction.text.TfidfVectorizer wurde behoben, indem ein Fehler ausgelöst wird, wenn 'min_idf' oder 'max_idf' Gleitkommazahlen größer als 1 sind. #20752 von Alek Lefebvre.

sklearn.linear_model#

  • Korrektur Verbessert die Stabilität von linear_model.LassoLars für verschiedene Versionen von openblas. #21340 von Thomas Fan.

  • Korrektur linear_model.LogisticRegression löst nun eine bessere Fehlermeldung aus, wenn der Solver keine dünnbesetzten Matrizen mit int64-Indizes unterstützt. #21093 von Tom Dupre la Tour.

sklearn.neighbors#

  • Korrektur neighbors.KNeighborsClassifier, neighbors.KNeighborsRegressor, neighbors.RadiusNeighborsClassifier, neighbors.RadiusNeighborsRegressor mit metric="precomputed" lösen einen Fehler für bsr- und dok-dünnbesetzte Matrizen in den Methoden fit, kneighbors und radius_neighbors aus, aufgrund der Handhabung von expliziten Nullen in bsr- und dok-Formaten von dünnbesetzten Graphen. #21199 von Thomas Fan.

sklearn.pipeline#

  • Korrektur pipeline.Pipeline.get_feature_names_out gibt Feature-Namen von einer Pipeline-Stufe an die nächste korrekt weiter. #21351 von Thomas Fan.

sklearn.svm#

  • Korrektur svm.SVC und svm.SVR prüfen auf Inkonsistenzen in ihrer internen Darstellung und lösen einen Fehler aus, anstatt einen Segfault zu verursachen. Dieser Fix behebt auch CVE-2020-28975. #21336 von Thomas Fan.

sklearn.utils#

  • Verbesserung utils.validation._check_sample_weight kann eine Prüfung auf Nicht-Negativität der Stichprobengewichte durchführen. Sie kann mit dem Bool-Parameter only_non_negative aktiviert werden. Schätzer, die auf nicht-negative Gewichte prüfen, wurden aktualisiert: linear_model.LinearRegression (hier war die vorherige Fehlermeldung irreführend), ensemble.AdaBoostClassifier, ensemble.AdaBoostRegressor, neighbors.KernelDensity. #20880 von Guillaume Lemaitre und András Simon.

  • Korrektur Ein Fehler in sklearn.utils.metaestimators.if_delegate_has_method wurde behoben, bei dem die zugrunde liegende Prüfung auf ein Attribut mit NumPy-Arrays nicht funktionierte. #21145 von Zahlii.

Sonstiges#

  • Korrektur Beim Trainieren eines Schätzers auf einem Datensatz ohne Feature-Namen, der zuvor auf einem Datensatz mit Feature-Namen trainiert wurde, werden die alten Feature-Namen, die im Attribut feature_names_in_ gespeichert sind, nicht mehr beibehalten. #21389 von Jérémie du Boisberranger.

Version 1.0.0#

September 2021

Minimale Abhängigkeiten#

Version 1.0.0 von scikit-learn erfordert Python 3.7+, NumPy 1.14.6+ und SciPy 1.1.0+. Optionale minimale Abhängigkeit ist Matplotlib 2.2.2+.

Erzwingen von Keyword-only-Argumenten#

Um eine klare und eindeutige Verwendung der Bibliothek zu fördern, müssen die meisten Konstruktor- und Funktionsparameter nun als Schlüsselwortargumente (d. h. unter Verwendung der Syntax param=value) anstelle von Positionsargumenten übergeben werden. Wenn ein Keyword-only-Parameter als Positionsargument verwendet wird, wird nun ein TypeError ausgelöst. #15005 #20002 von Joel Nothman, Adrin Jalali, Thomas Fan, Nicolas Hug und Tom Dupre la Tour. Weitere Details finden Sie in SLEP009.

Geänderte Modelle#

Die folgenden Schätzer und Funktionen können, wenn sie mit denselben Daten und Parametern angepasst werden, andere Modelle als in der vorherigen Version ergeben. Dies geschieht häufig aufgrund von Änderungen in der Modellierungslogik (Fehlerbehebungen oder Verbesserungen) oder in zufälligen Stichprobenverfahren.

  • Korrektur manifold.TSNE vermeidet nun numerische Unterlaufprobleme bei der Berechnung der Affinitätsmatrix.

  • Korrektur manifold.Isomap verbindet nun getrennte Komponenten des Nachbarknotens entlang einiger minimaler Distanzpaare, anstatt alle unendlichen Distanzen in Nullen umzuwandeln.

  • Korrektur Das Teilungskriterium von tree.DecisionTreeClassifier und tree.DecisionTreeRegressor kann durch eine Korrektur bei der Behandlung von Rundungsfehlern beeinflusst werden. Zuvor konnten einige zusätzliche irreführende Teilungen auftreten.

  • Korrektur model_selection.train_test_split mit einem stratify-Parameter und model_selection.StratifiedShuffleSplit können zu leicht unterschiedlichen Ergebnissen führen.

Details sind in der folgenden Changelog aufgeführt.

(Obwohl wir uns bemühen, Benutzer durch die Bereitstellung dieser Informationen besser zu informieren, können wir keine Vollständigkeit dieser Liste garantieren.)

Änderungsprotokoll#

  • API-Änderung Die Option zur Verwendung des quadratischen Fehlers über die Parameter loss und criterion wurde konsistenter gestaltet. Der bevorzugte Weg ist, den Wert auf "squared_error" zu setzen. Alte Optionsnamen sind weiterhin gültig, erzeugen die gleichen Modelle, sind aber veraltet und werden in Version 1.2 entfernt. #19310 von Christian Lorentzen.

    • Für ensemble.ExtraTreesRegressor ist criterion="mse" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für ensemble.GradientBoostingRegressor ist loss="ls" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für ensemble.RandomForestRegressor ist criterion="mse" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für ensemble.HistGradientBoostingRegressor ist loss="least_squares" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für linear_model.RANSACRegressor ist loss="squared_loss" veraltet, verwenden Sie stattdessen "squared_error".

    • Für linear_model.SGDRegressor ist loss="squared_loss" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für tree.DecisionTreeRegressor ist criterion="mse" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

    • Für tree.ExtraTreeRegressor ist criterion="mse" veraltet, verwenden Sie stattdessen "squared_error", was nun der Standard ist.

  • API-Änderung Die Option zur Verwendung des absoluten Fehlers über die Parameter loss und criterion wurde konsistenter gestaltet. Der bevorzugte Weg ist, den Wert auf "absolute_error" zu setzen. Alte Optionsnamen sind weiterhin gültig, erzeugen die gleichen Modelle, sind aber veraltet und werden in Version 1.2 entfernt. #19733 von Christian Lorentzen.

    • Für ensemble.ExtraTreesRegressor ist criterion="mae" veraltet, verwenden Sie stattdessen "absolute_error".

    • Für ensemble.GradientBoostingRegressor ist loss="lad" veraltet, verwenden Sie stattdessen "absolute_error".

    • Für ensemble.RandomForestRegressor ist criterion="mae" veraltet, verwenden Sie stattdessen "absolute_error".

    • Für ensemble.HistGradientBoostingRegressor ist loss="least_absolute_deviation" veraltet, verwenden Sie stattdessen "absolute_error".

    • Für linear_model.RANSACRegressor ist loss="absolute_loss" veraltet, verwenden Sie stattdessen "absolute_error", was nun der Standard ist.

    • Für tree.DecisionTreeRegressor ist criterion="mae" veraltet, verwenden Sie stattdessen "absolute_error".

    • Für tree.ExtraTreeRegressor ist criterion="mae" veraltet, verwenden Sie stattdessen "absolute_error".

  • API Change Die Verwendung von np.matrix ist in Version 1.0 veraltet und löst in Version 1.2 einen TypeError aus. #20165 von Thomas Fan.

  • API Change get_feature_names_out wurde zur Transformer-API hinzugefügt, um die Namen der Ausgabemerkmale zu erhalten. get_feature_names ist im Gegenzug veraltet. #18444 von Thomas Fan.

  • API Change Alle Estimators speichern feature_names_in_, wenn sie auf Pandas DataFrames trainiert werden. Diese Merkmalnamen werden mit den Namen verglichen, die in Nicht-fit Methoden, z. B. transform, gesehen werden, und lösen eine FutureWarning aus, wenn sie nicht konsistent sind, siehe auch Release Highlights für scikit-learn 1.0. Diese FutureWarnings werden in Version 1.2 zu ValueErrors. #18010 von Thomas Fan.

sklearn.base#

sklearn.calibration#

sklearn.cluster#

sklearn.compose#

sklearn.covariance#

sklearn.datasets#

  • Enhancement datasets.fetch_openml unterstützt nun Kategorien mit fehlenden Werten, wenn ein Pandas-DataFrame zurückgegeben wird. #19365 von Thomas Fan und Amanda Dsouza und EL-ATEIF Sara.

  • Enhancement datasets.fetch_kddcup99 löst eine bessere Nachricht aus, wenn die zwischengespeicherte Datei ungültig ist. #19669 Thomas Fan.

  • Enhancement Verwendet importlib.resources anstelle von __file__-bezogener E/A von Ressourcendateien, um die Annahme zu vermeiden, dass diese Ressourcendateien (z. B. iris.csv) bereits auf einem Dateisystem existieren, und um die Kompatibilität mit Tools wie PyOxidizer zu ermöglichen. #20297 von Jack Liu.

  • Fix Dateinamen von Datensätzen in den OpenML-Tests wurden gekürzt, um die Installation unter Windows und die dort standardmäßig geltende Längenbegrenzung von 260 Zeichen für Dateinamen besser zu unterstützen. #20209 von Thomas Fan.

  • Fix datasets.fetch_kddcup99 gibt DataFrames zurück, wenn return_X_y=True und as_frame=True gesetzt sind. #19011 von Thomas Fan.

  • API Change datasets.load_boston ist in Version 1.0 veraltet und wird in Version 1.2 entfernt. Alternative Codebeispiele zum Laden ähnlicher Datensätze werden bereitgestellt. Details finden Sie in der Dokumentation der Funktion. #20729 von Guillaume Lemaitre.

sklearn.decomposition#

sklearn.dummy#

sklearn.ensemble#

sklearn.feature_extraction#

sklearn.feature_selection#

sklearn.inspection#

sklearn.kernel_approximation#

  • Korrektur Ein Fehler in kernel_approximation.Nystroem behoben, bei dem das Attribut component_indices_ nicht mit der Teilmenge der Stichprobenindizes übereinstimmte, die zur Generierung des approximierten Kernels verwendet wurde. #20554 von Xiangyin Kong.

sklearn.linear_model#

sklearn.manifold#

  • Verbesserung Implementierung der 'auto' Heuristik für die learning_rate in manifold.TSNE. Sie wird in Version 1.2 zum Standard. Die Standardinitialisierung wird in Version 1.2 auf pca geändert. Die PCA-Initialisierung wird in Version 1.2 auf eine Standardabweichung von 1e-4 skaliert. #19491 von Dmitry Kobak.

  • Fix Numerische Präzision geändert, um Unterlaufprobleme bei der Berechnung der Affinitätsmatrix für manifold.TSNE zu verhindern. #19472 von Dmitry Kobak.

  • Fix manifold.Isomap verwendet nun scipy.sparse.csgraph.shortest_path zur Berechnung des kürzesten Pfades im Graphen. Außerdem werden getrennte Komponenten des Nachbargraphen über einige minimale Distanzpaare verbunden, anstatt alle unendlichen Distanzen auf Null zu setzen. #20531 von Roman Yurchak und Tom Dupre la Tour.

  • Fix Die numerische Standardtoleranz im lobpcg-Aufruf in manifold.spectral_embedding wurde reduziert, um numerische Instabilität zu verhindern. #21194 von Andrew Knyazev.

sklearn.metrics#

sklearn.mixture#

sklearn.model_selection#

sklearn.naive_bayes#

sklearn.neighbors#

sklearn.neural_network#

sklearn.pipeline#

  • API-Änderung Die Methoden predict_proba und predict_log_proba der Klasse pipeline.Pipeline unterstützen nun die Übergabe von Vorhersage-kwargs an den finalen Schätzer. #19790 von Christopher Flynn.

sklearn.preprocessing#

sklearn.svm#

sklearn.tree#

sklearn.utils#

Code- und Dokumentationsbeitragende

Vielen Dank an alle, die seit Version 0.24 zur Wartung und Verbesserung des Projekts beigetragen haben, darunter

Abdulelah S. Al Mesfer, Abhinav Gupta, Adam J. Stewart, Adam Li, Adam Midvidy, Adrian Garcia Badaracco, Adrian Sadłocha, Adrin Jalali, Agamemnon Krasoulis, Alberto Rubiales, Albert Thomas, Albert Villanova del Moral, Alek Lefebvre, Alessia Marcolini, Alexandr Fonari, Alihan Zihna, Aline Ribeiro de Almeida, Amanda, Amanda Dsouza, Amol Deshmukh, Ana Pessoa, Anavelyz, Andreas Mueller, Andrew Delong, Ashish, Ashvith Shetty, Atsushi Nukariya, Aurélien Geron, Avi Gupta, Ayush Singh, baam, BaptBillard, Benjamin Pedigo, Bertrand Thirion, Bharat Raghunathan, bmalezieux, Brian Rice, Brian Sun, Bruno Charron, Bryan Chen, bumblebee, caherrera-meli, Carsten Allefeld, CeeThinwa, Chiara Marmo, chrissobel, Christian Lorentzen, Christopher Yeh, Chuliang Xiao, Clément Fauchereau, cliffordEmmanuel, Conner Shen, Connor Tann, David Dale, David Katz, David Poznik, Dimitri Papadopoulos Orfanos, Divyanshu Deoli, dmallia17, Dmitry Kobak, DS_anas, Eduardo Jardim, EdwinWenink, EL-ATEIF Sara, Eleni Markou, EricEllwanger, Eric Fiegel, Erich Schubert, Ezri-Mudde, Fatos Morina, Felipe Rodrigues, Felix Hafner, Fenil Suchak, flyingdutchman23, Flynn, Fortune Uwha, Francois Berenger, Frankie Robertson, Frans Larsson, Frederick Robinson, frellwan, Gabriel S Vicente, Gael Varoquaux, genvalen, Geoffrey Thomas, geroldcsendes, Hleb Levitski, Glen, Glòria Macià Muñoz, gregorystrubel, groceryheist, Guillaume Lemaitre, guiweber, Haidar Almubarak, Hans Moritz Günther, Haoyin Xu, Harris Mirza, Harry Wei, Harutaka Kawari, Hassan Alsawadi, Helder Geovane Gomes de Lima, Hugo DEFOIS, Igor Ilic, Ikko Ashimine, Isaack Mungui, Ishaan Bhat, Ishan Mishra, Iván Pulido, iwhalvic, J Alexander, Jack Liu, James Alan Preiss, James Budarz, James Lamb, Jannik, Jeff Zhao, Jennifer Maldonado, Jérémie du Boisberranger, Jesse Lima, Jianzhu Guo, jnboehm, Joel Nothman, JohanWork, John Paton, Jonathan Schneider, Jon Crall, Jon Haitz Legarreta Gorroño, Joris Van den Bossche, José Manuel Nápoles Duarte, Juan Carlos Alfaro Jiménez, Juan Martin Loyola, Julien Jerphanion, Julio Batista Silva, julyrashchenko, JVM, Kadatatlu Kishore, Karen Palacio, Kei Ishikawa, kmatt10, kobaski, Kot271828, Kunj, KurumeYuta, kxytim, lacrosse91, LalliAcqua, Laveen Bagai, Leonardo Rocco, Leonardo Uieda, Leopoldo Corona, Loic Esteve, LSturtew, Luca Bittarello, Luccas Quadros, Lucy Jiménez, Lucy Liu, ly648499246, Mabu Manaileng, Manimaran, makoeppel, Marco Gorelli, Maren Westermann, Mariangela, Maria Telenczuk, marielaraj, Martin Hirzel, Mateo Noreña, Mathieu Blondel, Mathis Batoul, mathurinm, Matthew Calcote, Maxime Prieur, Maxwell, Mehdi Hamoumi, Mehmet Ali Özer, Miao Cai, Michal Karbownik, michalkrawczyk, Mitzi, mlondschien, Mohamed Haseeb, Mohamed Khoualed, Muhammad Jarir Kanji, murata-yu, Nadim Kawwa, Nanshan Li, naozin555, Nate Parsons, Neal Fultz, Nic Annau, Nicolas Hug, Nicolas Miller, Nico Stefani, Nigel Bosch, Nikita Titov, Nodar Okroshiashvili, Norbert Preining, novaya, Ogbonna Chibuike Stephen, OGordon100, Oliver Pfaffel, Olivier Grisel, Oras Phongpanangam, Pablo Duque, Pablo Ibieta-Jimenez, Patric Lacouth, Paulo S. Costa, Paweł Olszewski, Peter Dye, PierreAttard, Pierre-Yves Le Borgne, PranayAnchuri, Prince Canuma, putschblos, qdeffense, RamyaNP, ranjanikrishnan, Ray Bell, Rene Jean Corneille, Reshama Shaikh, ricardojnf, RichardScottOZ, Rodion Martynov, Rohan Paul, Roman Lutz, Roman Yurchak, Samuel Brice, Sandy Khosasi, Sean Benhur J, Sebastian Flores, Sebastian Pölsterl, Shao Yang Hong, shinehide, shinnar, shivamgargsya, Shooter23, Shuhei Kayawari, Shyam Desai, simonamaggio, Sina Tootoonian, solosilence, Steven Kolawole, Steve Stagg, Surya Prakash, swpease, Sylvain Marié, Takeshi Oura, Terence Honles, TFiFiE, Thomas A Caswell, Thomas J. Fan, Tim Gates, TimotheeMathieu, Timothy Wolodzko, Tim Vink, t-jakubek, t-kusanagi, tliu68, Tobias Uhmann, tom1092, Tomás Moreyra, Tomás Ronald Hughes, Tom Dupré la Tour, Tommaso Di Noto, Tomohiro Endo, TONY GEORGE, Toshihiro NAKAE, tsuga, Uttam kumar, vadim-ushtanit, Vangelis Gkiastas, Venkatachalam N, Vilém Zouhar, Vinicius Rios Fuck, Vlasovets, waijean, Whidou, xavier dupré, xiaoyuchai, Yasmeen Alsaedy, yoch, Yosuke KOBAYASHI, Yu Feng, YusukeNagasaka, yzhenman, Zero, ZeyuSun, ZhaoweiWang, Zito, Zito Relova