Версия 1.7#
Для краткого описания основных особенностей выпуска, пожалуйста, обратитесь к Основные новости выпуска scikit-learn 1.7.
Легенда для списков изменений
Основная функция что-то большое, что вы не могли сделать раньше.
Функция что-то, что вы не могли делать раньше.
Эффективность существующий признак теперь может не требовать столько вычислений или памяти.
Улучшение различные мелкие улучшения.
Исправление то, что ранее не работало, как задокументировано – или согласно разумным ожиданиям – теперь должно работать.
Изменение API вам потребуется изменить свой код, чтобы добиться того же эффекта в будущем; или функция будет удалена в будущем.
Версия 1.7.2#
Сентябрь 2025
sklearn.compose#
Исправление
compose.TransformedTargetRegressorтеперь передает преобразованную целевую переменную регрессору с тем же количеством измерений, что и исходная целевая переменная. С помощью kryggird. #31563
sklearn.feature_extraction#
Исправление Установить тег
requires_fit=Falseдля классовfeature_extraction.FeatureHasherиfeature_extraction.text.HashingVectorizer. Путем hakan çanakcı. #31851
sklearn.impute#
Исправление Исправлена ошибка в
impute.SimpleImputerсstrategy="most_frequent"когда есть ничья в наиболее частом значении и входные данные имеют смешанные типы. По Alexandre Abraham. #31820
sklearn.linear_model#
Исправление Исправлена ошибка с
solver="newton-cholesky"в многоклассовых задачах вlinear_model.LogisticRegressionCVи вlinear_model.LogisticRegressionпри использовании сwarm_start=True. Ошибка появлялась либо сfit_intercept=Trueили сpenalty=None(оба приводят к нештрафуемым параметрам для решателя). Коэффициенты и пересечения последнего класса, предоставленные теплым стартом, были частично неправильно перезаписаны нулями. По Christian Lorentzen. #31866
sklearn.pipeline#
Исправление
pipeline.FeatureUnionтеперь проверяет, что все преобразователи возвращают 2D выходные данные, и вызывает информативную ошибку, когда преобразователи возвращают 1D выходные данные, предотвращая тихие сбои, которые ранее приводили к бессмысленным объединённым результатам. С помощью gguiomar. #31559
Версия 1.7.1#
Июль 2025
sklearn.base#
Исправление Исправление регрессии в HTML-представлении при обнаружении нестандартных параметров, которые были типами array-like. Автор Dea María Léon #31528
sklearn.compose#
Исправление
compose.ColumnTransformerтеперь корректно сохраняет нестандартный индекс при смешивании pandas Series и Dataframes. По Nicolas Bolle. #31079
sklearn.datasets#
Исправление Исправлена регрессия, препятствующая извлечению загруженного набора данных в
datasets.fetch_20newsgroups,datasets.fetch_20newsgroups_vectorized,datasets.fetch_lfw_peopleиdatasets.fetch_lfw_pairs. Это влияет только на версии Python>=3.10.0,<=3.10.11и>=3.11.0,<=3.11.3. Путем Жереми дю Буаберранже. #31685
sklearn.inspection#
Исправление Исправлены несколько проблем в многоклассовой настройке
inspection.DecisionBoundaryDisplay:contourпостроение графиков теперь корректно показывает границу решения.cmapиcolorsтеперь правильно игнорируются в пользуmulticlass_colors.Линейные сегментированные цветовые карты теперь полностью поддерживаются.
По Yunjie Lin #31553
sklearn.naive_bayes#
Исправление
naive_bayes.CategoricalNBтеперь правильно указывает, что принимает категориальные признаки в тегах, возвращаемых его__sklearn_tags__метод. Путем Оливье Гризель #31556
sklearn.utils#
Исправление Исправлено ложное предупреждение (о том, что количество уникальных классов превышает 50% от количества образцов), которое могло возникать при передаче
classesutils.multiclass.type_of_target. Путем Sascha D. Krauss. #31584
Версия 1.7.0#
Июнь 2025
Измененные модели#
Исправление Изменить
ConvergenceWarningсообщение оценщиков, которые полагаются на"lbfgs"оптимизатор внутренне, чтобы быть более информативным и избегать предложений увеличить максимальное количество итераций, когда оно не устанавливается пользователем или когда проблема сходимости возникает до его достижения. Путём Оливье Гризель. #31316
Изменения, затрагивающие многие модули#
Разреженное обновление: В рамках изменения SciPy с spmatrix на sparray все внутреннее использование разреженных объектов теперь поддерживает как sparray, так и spmatrix. Все манипуляции с разреженными объектами должны работать как для spmatrix, так и для sparray. Это первый этап миграции к sparray (см. Миграция SciPy на sparray По Дэн Шульт #30858
Поддержка Array API#
Дополнительные оценщики и функции были обновлены для включения поддержки всех Array API соответствующие входные данные.
См. Поддержка Array API (экспериментальная) для получения дополнительной информации.
Функция
sklearn.utils.check_consistent_lengthтеперь поддерживает совместимые с Array API входные данные. С помощью Stefanie Senger #29519Функция
sklearn.metrics.explained_variance_scoreиsklearn.metrics.mean_pinball_lossтеперь поддерживает входные данные, совместимые с Array API. С помощью Вирджил Чан #29978Функция
sklearn.metrics.fbeta_score,sklearn.metrics.precision_scoreиsklearn.metrics.recall_scoreтеперь поддерживает входные данные, совместимые с Array API. С помощью Omar Salman #30395Функция
sklearn.utils.extmath.randomized_svdтеперь поддерживает входные данные, совместимые с Array API. С помощью Connor Lane и Жереми дю Буаберранже. #30819Функция
sklearn.metrics.hamming_lossтеперь поддерживает входные данные, совместимые с Array API. С помощью Thomas Li #30838Функция
preprocessing.Binarizerтеперь поддерживает входные данные, совместимые с Array API. Путём Ярослав Коробко, Оливье Гризель, и Thomas Li. #31190Функция
sklearn.metrics.jaccard_scoreтеперь поддерживает входные данные, совместимые с Array API. Путём Omar Salman #31204array-api-compat и array-api-extra теперь включены в исходный код scikit-learn. Пользователям экспериментальной поддержки стандарта array API больше не нужно устанавливать array-api-compat в своей среде. от Lucas Colley #30340
при использовании парсера pandas. Параметр#
См. Руководство по маршрутизации метаданных для более подробной информации.
Функция
ensemble.BaggingClassifierиensemble.BaggingRegressorтеперь поддерживают маршрутизацию метаданных через своиpredict,predict_proba,predict_log_probaиdecision_functionметоды и передают**paramsк базовым оценщикам. С помощью Stefanie Senger. #30833
sklearn.base#
Улучшение
base.BaseEstimatorтеперь имеет параметр table, добавленный к HTML-представлению оценщиков, которое можно визуализировать с помощью jupyter. С помощью Guillaume Lemaitre и Dea María Léon #30763
sklearn.calibration#
Исправление
CalibratedClassifierCVтеперь вызываетFutureWarningвместоUserWarningпри передачеcv="prefit”. С помощью Оливье ГризельCalibratedClassifierCVсmethod="sigmoid"больше не приводит к сбоям при передачеfloat64-dtypedsample_weightвместе с базовым оценщиком, который выводитfloat32-типизированные предсказания. Путем Olivier Grisel #30873
sklearn.compose#
Изменение API The
force_int_remainder_colsпараметрcompose.ColumnTransformerиcompose.make_column_transformerустарел и будет удален в версии 1.9. Он не имеет эффекта. По Жереми дю Буаберранже Здесь мы показываем пример, иллюстрирующий взаимосвязь между оценками условной вероятности
sklearn.covariance#
Исправление Поддержка
n_samples == n_featuresвsklearn.covariance.MinCovDetбыл восстановлен. С помощью Antony Lee. #30483
sklearn.datasets#
Улучшение Новый параметр
return_X_yдобавлен вdatasets.make_classification. Значение по умолчанию параметра не меняет поведение функции. Путем Success Moses и Adam Cooper #30196
sklearn.decomposition#
Функция
DictionaryLearning,SparseCoderиMiniBatchDictionaryLearningтеперь имеютinverse_transformметод. С помощью Rémi Flamary #30443
sklearn.ensemble#
Функция
ensemble.HistGradientBoostingClassifierиensemble.HistGradientBoostingRegressorпозволяет лучше контролировать валидационный набор, используемый для ранней остановки. Теперь можно передавать данные для валидации непосредственно вfitчерез аргументыX_val,y_valиsample_weight_val. Путем Christian Lorentzen. #27124Исправление
ensemble.VotingClassifierиensemble.VotingRegressorпроверятьestimatorsчтобы убедиться, что это список кортежей. С помощью Томас Фан. #30649
sklearn.feature_selection#
Улучшение
feature_selection.RFECVтеперь предоставляет доступ к ранжированию и поддержке на каждой итерации и шаге кросс-валидации при выборе признаков. Автор Marie S. #30179Исправление
feature_selection.SelectFromModelтеперь корректно работает, когда оценщик является экземпляромlinear_model.ElasticNetCVraw_covariance_l1_ratioпараметр является array-like. Путем Vasco Pereira. #31107
sklearn.gaussian_process#
Улучшение
gaussian_process.GaussianProcessClassifierтеперь включаетlatent_mean_and_varianceметод, который раскрывает среднее значение и дисперсию скрытой функции, \(f\), используется в приближении Лапласа. Автор Мигель Гонсалес Дуке #22227
sklearn.inspection#
Улучшение Добавить
custom_valuesпараметр вinspection.partial_dependence. Это позволяет пользователям передавать собственную сетку значений, для которой следует вычислить частичную зависимость. Freddy A. Boulton и Stephen Pardy #26202Улучшение
inspection.DecisionBoundaryDisplayтеперь поддерживает построение графиков всех классов для многоклассовых задач, когдаresponse_methodявляется 'decision_function', 'predict_proba' или 'auto'. По Lucy Liu #29797Исправление
inspection.partial_dependenceтеперь выдает информативную ошибку при передаче пустого списка в качествеcategorical_featuresпараметр.Noneследует использовать вместо этого, чтобы указать, что категориальные признаки отсутствуют. По Pedro Lopes. #31146Изменение API
inspection.partial_dependenceбольше не принимает целочисленный dtype для числовых столбцов признаков. Теперь требуется явное преобразование в значения с плавающей точкой перед вызовом этого инструмента (и предпочтительно даже перед обучением модели для инспекции). По Оливье Гризель #30409
sklearn.linear_model#
Улучшение
linear_model.SGDClassifierиlinear_model.SGDRegressorтеперь принимаютl1_ratio=Noneкогдаpenaltyне является"elasticnet". Путем Marc Bresson. #30730Эффективность Обучение
linear_model.Lassoиlinear_model.ElasticNetсfit_intercept=Trueбыстрее для разреженного вводаXпоскольку избегается ненужное повторное вычисление суммы остатков. Путем Christian Lorentzen #31387Исправление
linear_model.LogisticRegressionиlinear_model.LogisticRegressionCVтеперь правильно передает веса образцов вutils.class_weight.compute_class_weightпри обучении сclass_weight="balanced". Путем Шрути Нат и Оливье Гризель #30057Исправление Добавлен новый параметр
toltolinear_model.LinearRegressionкоторая определяет точность решенияcoef_при обучении на разреженных данных. Путем Success Moses #30521Исправление Обновление и инициализация гиперпараметров теперь правильно обрабатывают веса выборок в
linear_model.BayesianRidge. Путем Antoine Baker. #30644Исправление
linear_model.BayesianRidgeтеперь использует полное SVD для корректной оценки апостериорной ковариационной матрицыsigma_когдаn_samples < n_features. Путем Antoine Baker #31094Изменение API Параметр
n_alphasбыло устаревшим в следующих классах:linear_model.ElasticNetCVиlinear_model.LassoCVиlinear_model.MultiTaskElasticNetCVиlinear_model.MultiTaskLassoCV, и будет удален в 1.9. Параметрalphasтеперь поддерживает как целые числа, так и массиво-подобные объекты, устраняя необходимость вn_alphas. Отныне толькоalphasдолжно быть установлено либо для указания количества alphas для автоматической генерации (int), либо для предоставления списка alphas (array-like) для тестирования вдоль пути регуляризации. По Сиддхарт Бансал. #30616Изменение API Используя
"liblinear"решатель для многоклассовой классификации с схемой один-против-всех вlinear_model.LogisticRegressionиlinear_model.LogisticRegressionCVустарел и будет вызывать ошибку в версии 1.8. Либо используйте решатель, который поддерживает мультиномиальную потерю, либо оберните оценщик вsklearn.multiclass.OneVsRestClassifierпродолжать применять схему "один против всех". Путем Жереми дю Буаберранже. #31241
sklearn.manifold#
Улучшение
manifold.MDSпереключится на использованиеn_init=1по умолчанию, начиная с версии 1.9. С помощью Dmitry Kobak #31117Исправление
manifold.MDSтеперь корректно обрабатывает неметрическое MDS. Кроме того, возвращаемое значение стресса теперь соответствует возвращаемому вложению и нормализованный стресс теперь разрешен для метрического MDS. Автор Dmitry Kobak #30514Исправление
manifold.MDSтеперь используетeps=1e-6по умолчанию, и критерий сходимости был скорректирован, чтобы иметь смысл как для метрического, так и для неметрического MDS и следовать эталонной реализации на R. Формула для нормализованного стресса была скорректирована, чтобы следовать исходному определению Крускала. Автор Dmitry Kobak #31117
sklearn.metrics#
Функция
metrics.brier_score_lossреализует оценку Брайера для многоклассовых задач классификации и добавляетscale_by_halfаргумент. Эта метрика особенно полезна для оценки как резкости, так и калибровки вероятностных классификаторов. Подробности см. в строках документации. По Varun Aggarwal, Оливье Гризель и Antoine Baker. #22046Функция Добавить метод класса
from_cv_resultstometrics.RocCurveDisplay, что позволяет легко строить несколько ROC-кривых изmodel_selection.cross_validateрезультаты. С помощью Lucy Liu модуль:Улучшение
metrics.det_curve,metrics.DetCurveDisplay.from_estimator, иmetrics.DetCurveDisplay.from_estimatorтеперь принимаетdrop_intermediateопция для удаления порогов, где истинно положительные (tp) не меняются по сравнению с предыдущими или последующими порогами. Все точки с одинаковым значением tp имеют одинаковыйfnrи, следовательно, ту же координату y на кривой DET. Путем Arturo Amor #29151Улучшение
class_likelihood_ratiosтеперь имеетreplace_undefined_byпараметр. Когда происходит деление на ноль, метрика не определена, и установленные значения возвращаются дляLR+иLR-. Путем Stefanie Senger #29288Исправление
metrics.log_lossтеперь вызываетValueErrorесли значенияy_trueотсутствуют вlabels. С помощью Varun Aggarwal, Оливье Гризель и Antoine Baker. #22046Исправление
metrics.det_curveиmetrics.DetCurveDisplayтеперь возвращает дополнительный порог на бесконечности, где классификатор всегда предсказывает отрицательный класс, т.е. tps = fps = 0. По Arturo Amor #29151Исправление
class_likelihood_ratiosтеперь вызываетUndefinedMetricWarningвместоUserWarningкогда происходит деление на ноль. С помощью Stefanie Senger #29288Исправление
metrics.RocCurveDisplayбольше не будет устанавливать легенду, когдаlabelявляетсяNoneв обоихline_kwargsиchance_level_kw. Путем Arturo Amor #29727Исправление Дополнительные
sample_weightпроверка была добавлена вmetrics.mean_absolute_error,metrics.mean_pinball_loss,metrics.mean_absolute_percentage_error,metrics.mean_squared_error,metrics.root_mean_squared_error,metrics.mean_squared_log_error,metrics.root_mean_squared_log_error,metrics.explained_variance_score,metrics.r2_score,metrics.mean_tweedie_deviance,metrics.mean_poisson_deviance,metrics.mean_gamma_devianceиmetrics.d2_tweedie_score.sample_weightможет быть только 1D, согласованно сy_trueиy_predпо длине или скаляр. С помощью Lucy Liu. #30886Исправление
d2_log_loss_scoreтеперь корректно обрабатывает случай, когдаlabelsпередается и не все метки присутствуют вy_true. Путем Vassilis Margonis #30903Исправление Исправление
metrics.adjusted_mutual_info_scoreчисловая проблема, когда количество классов и образцов мало. По Hleb Levitski #31065Изменение API The
sparseпараметрmetrics.fowlkes_mallows_scoreустарел и будет удален в версии 1.9. Он не имеет эффекта. По Luc Rocher. #28981Изменение API The
raise_warningпараметрmetrics.class_likelihood_ratiosустарел и будет удален в 1.9.UndefinedMetricWarningвсегда будет вызываться в случае деления на ноль. Stefanie Senger. #29288Изменение API В
sklearn.metrics.RocCurveDisplay.from_predictions, аргументy_predбыл переименован вy_scoreчтобы лучше отразить его назначение.y_predбудет удалено в версии 1.9. По Багус Трис Атмаджа в #29865
sklearn.mixture#
Функция Добавлен атрибут
lower_bounds_вmixture.BaseMixtureкласс для сохранения списка нижних границ для каждой итерации, тем самым предоставляя инсайты в поведение сходимости моделей смесей, таких какmixture.GaussianMixture. Путем Манидип Йенугула #28559Эффективность Упрощённое избыточное вычисление при оценке ковариаций в
GaussianMixtureсcovariance_type="spherical"илиcovariance_type="diag". Путем Leonce Mekinda и Оливье Гризель #30414Эффективность
GaussianMixtureтеперь последовательно работает наfloat32точность при обучении сfloat32данные для повышения скорости обучения и эффективности использования памяти. Ранее часть вычислений неявно преобразовывалась вfloat64. С помощью Оливье Гризель и Omar Salman. #30415
sklearn.model_selection#
Исправление Оптимизаторы гиперпараметров, такие как
model_selection.GridSearchCVтеперь перенаправляетsample_weightв оценщик, даже когда маршрутизация метаданных не включена. По Antoine Baker #30743
sklearn.multiclass#
Исправление The
predict_probaметодsklearn.multiclass.OneVsRestClassifierтеперь возвращает ноль для всех классов, когда все внутренние оценщики никогда не предсказывают свой положительный класс. Благодаря Luis M. B. Varona, Marc Bresson, и Жереми дю Буаберранже. #31228
sklearn.multioutput#
Улучшение Параметр
base_estimatorбыл устаревшим в пользуestimatorдляmultioutput.RegressorChainиmultioutput.ClassifierChain. Путем Success Moses и dikraMasrour #30152
sklearn.neural_network#
Функция Добавлена поддержка для
sample_weightвneural_network.MLPClassifierиneural_network.MLPRegressor. Путем Зак Шу и Christian Lorentzen #30155Функция Добавлен параметр для
lossвneural_network.MLPRegressorс опциями"squared_error"(по умолчанию) и"poisson"(новый). Автор: Christian Lorentzen #30712Исправление
neural_network.MLPRegressorтеперь выдает информативную ошибку, когдаearly_stoppingустановлен и вычисленный набор валидации слишком мал. При David Shumway. #24788
sklearn.pipeline#
Улучшение Раскрыть
verbose_feature_names_outаргумент вpipeline.make_unionфункцию, позволяя пользователям контролировать уникальность названий признаков вpipeline.FeatureUnion. Путем Abhijeetsingh Meena #30406
sklearn.preprocessing#
Улучшение
preprocessing.KBinsDiscretizerсstrategy="uniform"теперь принимаетsample_weight. Дополнительно сstrategy="quantile"thequantile_methodтеперь может быть указан (в будущемquantile_method="averaged_inverted_cdf"станет значением по умолчанию). С помощью Шрути Нат и Оливье Гризель #29907Исправление
preprocessing.KBinsDiscretizerтеперь использует взвешенную повторную выборку, когда заданы веса образцов и используется субдискретизация. Это может изменить результаты даже при неиспользовании весов образцов, хотя в абсолютных, а не в статистических свойствах. По Шрути Нат и Жереми дю Буаберранже #29907Исправление Теперь используя
scipy.stats.yeojohnsonвместо нашей собственной реализации преобразования Йео-Джонсона. Исправлена численная устойчивость (в основном переполнения) преобразования Йео-Джонсона сPowerTransformer(method="yeo-johnson")когда версия scipy>= 1.12. Начальный PR от Xuefeng Xu завершено Mohamed Yaich, Oussama Er-rabie, Мохаммед Яслам Длими, Hamza Zaroual, Амин Ханнун и Sylvain Marié. #31227
sklearn.svm#
Исправление
svm.LinearSVCтеперь правильно передает веса образцов вutils.class_weight.compute_class_weightпри обучении сclass_weight="balanced". Путем Шрути Нат #30057
sklearn.utils#
Улучшение
utils.multiclass.type_of_targetвызывает предупреждение, когда количество уникальных классов превышает 50% от количества образцов. Это предупреждение выводится только еслиyимеет более 20 образцов. По Rahil Parikh. #26335Улучшение :func:
resampleтеперь обрабатывает веса выборок, что позволяет взвешенное повторное сэмплирование. По Шрути Нат и Оливье Гризель #29907Улучшение
utils.class_weight.compute_class_weightтеперь правильно учитывает веса образцов при использовании стратегии "balanced" для расчета весов классов. С помощью Шрути Нат #30057Улучшение Фильтры предупреждений из основного процесса передаются воркерам joblib. По Томас Фан #30380
Улучшение Вспомогательная приватная функция
utils._safe_indexingтеперь официально поддерживает data pyarrow. Например, передача pyarrowTableкакXвcompose.ColumnTransformerтеперь возможно. Путем Christian Lorentzen #31040Исправление В
utils.estimator_checksмы теперь применяем для бинарных классификаторов бинарныйyпутем взятия минимума в качестве отрицательного класса вместо первого элемента, что делает его устойчивым кyперемешивание. Это предотвращает ошибочное срабатывание двух проверок для бинарных классификаторов. Путем Antoine Baker. #30775Исправление
utils.extmath.randomized_svdиutils.extmath.randomized_range_finderтеперь проверяют входной массив, чтобы раньше завершаться с информативным сообщением об ошибке при недопустимом вводе. По Connor Lane. #30819
Участники кода и документации
Спасибо всем, кто внес вклад в поддержку и улучшение проекта с версии 1.6, включая:
4hm3d, Aaron Schumacher, Abhijeetsingh Meena, Acciaro Gennaro Daniele, Achraf Tasfaout, Adriano Leão, Adrien Linares, Adrin Jalali, Agriya Khetarpal, Aiden Frank, Aitsaid Azzedine Idir, ajay-sentry, Akanksha Mhadolkar, Alexandre Abraham, Alfredo Saucedo, Anderson Chaves, Andres Guzman-Ballen, Aniruddha Saha, antoinebaker, Antony Lee, Arjun S, ArthurDbrn, Arturo, Arturo Amor, ash, Ashton Powell, ayoub.agouzoul, Ayrat, Bagus Tris Atmaja, Benjamin Danek, Boney Patel, Camille Troillard, Chems Ben, Christian Lorentzen, Christian Veenhuis, Christine P. Chai, claudio, Code_Blooded, Colas, Colin Coe, Connor Lane, Corey Farwell, Daniel Agyapong, Dan Schult, Dea María Léon, Deepak Saldanha, dependabot[bot], Dhyey Findoriya, Dimitri Papadopoulos Orfanos, Dmitry Kobak, Domenico, elenafillo, Elham Babaei, emelia-hdz, EmilyXinyi, Emma Carballal, Eric Larson, Eugen-Bleck, Evgeni Burovski, fabianhenning, Gael Varoquaux, GaetandeCast, Gil Ramot, Gonçalo Guiomar, Gordon Grey, Goutam, G Sreeja, Guillaume Lemaitre, Haesun Park, hakan çanakçı, Hanjun Kim, Helder Geovane Gomes de Lima, Henri Bonamy, Hleb Levitski, Hugo Boulenger, IlyaSolomatin, Irene, Jérémie du Boisberranger, Jérôme Dockès, JoaoRodriguesIST, Joel Nothman, Joris Van den Bossche, Josh, jshn9515, KALLA GANASEKHAR, Kevin Klein, Krishnan Vignesh, kryggird, Loic Esteve, Lucas Colley, Luc Rocher, Lucy Liu, Luis M. B. Varona, lunovian, Mamduh Zabidi, Marc Bresson, Marco Edward Gorelli, Marco Maggi, Marek Pokropiński, Maren Westermann, Marie Sacksick, Marija Vlajic, Martin Jurča, Mayank Raj, Michael Burkhart, Miguel González Duque, Mihir Waknis, Miro Hrončok, Mohamed Ali SRIR, Mohamed DHIFALLAH, mohammed benyamna, Mohit Singh Thakur, Mounir Lbath, myenugula, Natalia Mokeeva, Nicolas Bolle, Olivier Grisel, omahs, Omar Salman, Pedro Lopes, Pedro Olivares, Peter Holzer, Prashant Bansal, Preyas Shah, Radovenchyk, Rahil Parikh, Rémi Flamary, Reshama Shaikh, Richard Harris, Rishab Saini, rolandrmgservices, SanchitD, Santiago Castro, Santiago Víquez, saskra, scikit-learn-bot, Scott Huberty, Shashank S, Shaurya Bisht, Shivam, Shruti Nath, Siddharth Bansal, SIKAI ZHANG, Simarjot Sidhu, sisird864, SiyuJin-1, Somdutta Banerjee, Sortofamudkip, sotagg, Sourabh Kumar, Stefan, Stefanie Senger, Stefano Gaspari, Steffen Rehberg, Stephen Pardy, Success Moses, Sylvain Combettes, Tahar Allouche, Thomas J. Fan, Thomas Li, ThorbenMaa, Tim Head, Tingwei Zhu, TJ Norred, Umberto Fasci, UV, Vasco Pereira, Vassilis Margonis, Velislav Babatchev, Victoria Shevchenko, viktor765, Vipsa Kamani, VirenPassi, Virgil Chan, vpz, Xiao Yuan, Yaich Mohamed, Yair Shimony, Yao Xiao, Yaroslav Halchenko, Yulia Vilensky, Yuvi Panda