我目前正在使用Open CV 3.1为Visual Studio 2013中的图像处理学校开发一个项目。我的目标(现在)是使用仿射变换来转换图像,以便将梯形板转换成矩形。C++中的仿射变换
要做到这一点,我已经减少了某些渠道和阈值的图像,所以现在我有一个在板的角落有白色块的二进制图像。 现在我需要选择4个最接近每个角的白点,并且(使用仿射变换)将它们设置为变换图像的角点。
因为这是我第一次使用Open CV,所以我被卡住了。
这里是我的代码:
#include <iostream>
#include <opencv2\core.hpp>
#include <opencv2\highgui.hpp>
#include<opencv2/imgproc.hpp>
#include <stdlib.h>
#include <stdio.h>
#include <vector>
int main(){
double dist;
cv::Mat image;
image = cv::imread("C:\\Users\\...\\ideal.png");
cv::Mat imagebin;
imagebin = cv::imread("C:\\Users\\...\\ideal.png");
cv::Mat imageerode;
//cv::imshow("Test", image);
cv::Mat src = cv::imread("C:\\Users\\...\\ideal.png");
std::vector<cv::Mat>img_rgb;
cv::split(src, img_rgb);
//cv::imshow("ideal.png", img_rgb[2] - img_rgb[1]);
cv::threshold(img_rgb[2] - 0.5*img_rgb[1], imagebin , 20, 255, CV_THRESH_BINARY);
cv::erode(imagebin, imageerode, cv::Mat(), cv::Point(1, 1), 2, 1, 1);
cv::erode(imageerode, imageerode, cv::Mat(), cv::Point(1, 1), 2, 1, 1);
// cv::Point2f array[4];
// std::vector<cv::Point2f> array;
for (int i = 0; i < imageerode.cols; i++)
{
for (int j = 0; j < imageerode.rows; j++)
{
if (imageerode.at<uchar>(i,j) > 0)
{
dist = std::min(dist, i + j);
}
}
}
//cv::imshow("Test binary", imagebin);
cv::namedWindow("Test", CV_WINDOW_NORMAL);
cv::imshow("Test", imageerode);
cv::waitKey(0);
std::cout << "Hello world!";
return 0;
}
正如你所看到的,我不知道如何使用image.at并保存到每一个角落的距离在每个白色像素循环。
我将不胜感激。
另外:我不想这样做。我真的想学习如何做到这一点。但我现在有一些mindstuck。
谢谢
编辑:
我觉得我与发现4个点的坐标来完成。但我无法真正理解warpAffine语法。
代码:
for (int i = 0; i < imageerode.cols; i++)
{
for (int j = 0; j < imageerode.rows; j++)
{
if (imageerode.at<uchar>(i, j) > 0)
{
if (i + j < distances[0])
{
distances[0] = i + j;
coordinates[0] = i;
coordinates[1] = j;
}
if (i + imageerode.cols-j < distances[1])
{
distances[1] = i + imageerode.cols-j;
coordinates[2] = i;
coordinates[3] = j;
}
if (imageerode.rows-i + j < distances[2])
{
distances[2] = imageerode.rows - i + j;
coordinates[4] = i;
coordinates[5] = j;
}
if (imageerode.rows-i + imageerode.cols-j < distances[3])
{
distances[3] = imageerode.rows - i + imageerode.cols - j;
coordinates[6] = i;
coordinates[7] = j;
}
}
}
当我所有的距离值设置为imageerode.cols + imageerode.rows因为它可以得到最大的价值。 另请注意,我正在使用出租车几何图形。我被告知速度更快,结果几乎相同。
如果任何人都可以用warpAffine来帮助我,那就太好了。我不明白我把我找到的坐标放在哪里。
谢谢
尝试['findContours'](http://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=findcontours#findcontours) – slawekwin
如何找到角落?迭代边界像素的所有像素(黑色与相邻的白色像素)并查看相邻边界像素是否转弯(即急转弯,您可能找不到干净的方式来检测接近180度的转弯°)。然后你必须转弯,并可以很容易地找到最接近的白色像素。或直接与角落工作。 – Aziuth
视觉c在学校....它很酷(也许) –