-
0 votesanswersviews
从scipy CSR矩阵索引到numpy数组的最有效方法?
我有一个形状为 (4000, 3) 的numpy ndarray X ,其中 X 中的每个样本都是一个3D坐标(x,y,z) . 我有一个形状 (4000, 4000) 的scipy csr矩阵 nn_rad_csr ,这是从 sklearn.neighbors.radius_neighbors_graph(X, 0.01, include_self=True) 生成的最近邻居图 . nn_ra... -
0 votesanswersviews
scikit-learn:最近的邻居
我正在查看sklearn.neighbors.NearestNeighbors和相应的BallTree类 . 我的问题是,是否有任何方法可以继续培训/追加新数据到树上?或者它总是必须完全改装? -
11 votesanswersviews
最近邻居 - k-d树 - 维基百科证明
在wikipedia entry for k-d trees上,提出了一种用于在k-d树上进行最近邻搜索的算法 . 我只是因为搜索点的分割坐标与当前节点之间的差异大于搜索点的分割坐标与当前最佳分割之间的差异,所以我更接近于什么? 最近邻搜索在2D中使用KD树进行NN搜索的动画最近邻居(NN)算法旨在找到树中最接近给定输入点的点 . 通过使用树属性快速消除搜索空间的大部分,可以有效地完成此搜索 .... -
3 votesanswersviews
如何将图像与kd-trees和最近邻搜索进行比较/匹配?
我一直在向google查询有关kd-trees和图像比较的一些材料,但我无法在使用kd-trees进行图像比较的技术之间 Build “链接” . 首先,我发现一些文章谈论随机kd树的速度提升,然后我被介绍给SIFT . 在基本了解了SIFT如何工作之后,我读到了最近邻搜索 . 我真正的问题是:如果我有来自SIFT的点网格,那么我为每个图像创建kd树 . 最近邻搜索如何帮助我比较图像?起初,我认为... -
2 votesanswersviews
2d树最近邻算法澄清
我正在尝试为2d树实现递归最近邻居算法 . 递归(和展开递归)仍然让我感到困惑,我发现的最好的伪代码来自StackOverflow这个问题: 2D KD Tree and Nearest Neighbour Search 然而,答案使用“中位数”值,我不知道如何计算 . 关于kd-tree的维基百科文章也有一个不使用中值的最近邻伪代码 . 我想知道是否有可能在不使用中值的情况下构造Nearest ... -
2 votesanswersviews
近似最近邻时间复杂度
我正在读这篇论文Product quantization for nearest neighbor search . 它给出了第二页第5页的最后一行 此表中给出的用于搜索k个最小元素的复杂度是n >> k的平均复杂度以及当元素被任意排序时 这是 n+klogkloglogn . 我想我们可以使用线性选择算法来获得带有 O(n) 的未排序k最近邻居,并使用 O(klogk) 对k个... -
1 votesanswersviews
最近邻搜索非度量空间
在非度量空间中工作时,我想知道最近邻搜索算法吗?特别是,在此设置中是否存在kd-tree算法的任何变体,具有可证明的时间复杂度等? -
4 votesanswersviews
K Nearest Neighbors(KNN)用于使用自定义距离度量的稀疏矩阵
给定大小为NxN(N = 900,000)的稀疏矩阵(使用scipy.sparse.csr_matrix创建),I 'm trying to find, for every row in testset, top k nearest neighbors (sparse row vectors from the input matrix) using a custom distance metric... -
0 votesanswersviews
使用k-最近邻居而不分成训练和测试集
我有以下数据集,超过20,000行: 我想使用列A到E来使用k近邻算法预测列X.我曾尝试使用sklearn中的 KNeighborsRegressor ,如下所示: import pandas as pd import random from numpy.random import permutation import math from sklearn.neighbors import KNe... -
1 votesanswersviews
在scikit-learn中为knn分类器提供用户定义的样本权重
我正在使用scikit-learn KNeighborsClassifier对具有4个输出类的数据集进行分类 . 以下是我使用的代码: knn = neighbors.KNeighborsClassifier(n_neighbors=7, weights='distance', algorithm='auto', leaf_size=30, p=1, metric='minkowski') 该模型... -
0 votesanswersviews
最近邻搜索的方法[关闭]
什么样的数据结构应该用于二维最近邻搜索? 我搜索并发现有很多数据结构:k-d树,四叉树,八叉树 . 那么我应该使用什么样的结构? -
6 votesanswersviews
OpenCV:在群集上运行FLANN
我正在尝试为大量图像缩放"matching_to_many_images.cpp" . (20K图片)https://github.com/kipr/opencv/blob/master/samples/cpp/matching_to_many_images.cpp 我使用基于FLANN的匹配器匹配图像(使用SURF关键点和描述符提取器) . 我尝试按照本文中描述的方法(部分... -
1 votesanswersviews
在.predict()期间Python KNN加权?
我正在为一个类使用KNN算法(指示使用这个算法,可能不是你期望的应用程序,见下文) 基本上,我们设置了覆盆子pi来收集6个本地WIFI路由器Mac地址的信号强度 . 在我们建筑物楼层的不同位置,我们在.csv文件中记录了这些信号强度 . 使用python我创建了一个使用此页面上的函数的脚本 . http://scikit-learn.org/stable/modules/generated/sk... -
1 votesanswersviews
使用R实现具有不同距离度量的KNN
我正在研究数据集,以便比较不同距离指标的影响 . 我正在使用KNN算法 . R中的KNN算法默认使用欧几里德距离 . 所以我写了自己的 . 我想找到最近邻居和目标之间正确的类别标签匹配的数量 . 我首先准备了数据 . 然后我调用了数据( wdbc_n ),我选择了K = 1 . 我用欧几里得距离作为测试 . library(philentropy) knn <- function(xmat,...