Search
'학술'에 해당되는 글 107건
- 2015.11.27 논문 및 국내/국제 특허 출원 시기의 중요성
- 2015.04.10 이항 5차방정식의 계수 구성
- 2014.10.31 Comparative evaluation of feature extraction methods for human motion detection
- 2014.10.21 Optimal Video Delivery in Mobile Networks Using a Cache-Accelerated Multi Area eMBMS Architecture
- 2012.02.13 Accurate and practical calibration of a depth and color camera pair
- 2012.01.26 Surface Fitting in MATLAB
- 2011.12.08 Pinhole movement while zooming
- 2011.10.31 PDF Unlock
- 2011.10.17 On the direct minimization of ray distances
- 2011.09.15 [OpenCV] BRIEF에는 FLANN을 사용할 수 없다. 2
은 다음과 같다.
f(x,y) = p00 + p10*x + p01*y + p20*x^2 + p11*x*y + p02*y^2 + p30*x^3 + p21*x^2*y
+ p12*x*y^2 + p03*y^3 + p40*x^4 + p31*x^3*y + p22*x^2*y^2
+ p13*x*y^3 + p04*y^4 + p50*x^5 + p41*x^4*y + p32*x^3*y^2
+ p23*x^2*y^3 + p14*x*y^4 + p05*y^5
Comparative evaluation of feature extraction methods for human motion detection
학술 2014. 10. 31. 11:07
AIAI 2014
그리스 Patras 대학 등
개요
가속도계(accelerometer) 등의 센서는 소형이고 저전력인 장점으로 인해 사람의 동작을 인식하는 데 널리 쓰이고 있다. 본 연구는 가속도계를 이용하여 사람의 동작을 인식하는 문제에 있어서, 여러 가지 전처리(pre-processing)와 분류기(classifier)의 종류에 따른 실험을 수행하고 그 결과를 비교 분석하였다.
우선 가속도계로부터 입력되는 x,y,z 신호에 대해 윈도우(W)를 적용하고 이 윈도우에 대해 아무 처리도 하지 않은 신호와, N 가지의 필터를 적용한 신호, 그리고 기하학적 표현을 거친 신호로 각각 (동시에) 전처리한다.
전처리 과정을 거친 신호들로부터 통계적 특징(features)과 물리적 특징을 추출하고 이로부터 분류기가 해당 입력이 어떤 동작인지를 결정한다(그림 10). 통계적 특징은 다시 시간 영역(time-domain)에서의 평균, 중간값, 분산, RMS 등과 주파수 영역(frequency domain)에서의 스펙트럼 에너지 등으로 나뉘어 총 77개의 특징으로 구성되고, 4가지 전처리와 합해 4x77=308차원의 특징 벡터가 만들어진다.
분류기는 SVM support vector machine을 사용하였으며 WEKA machine learning toolkit 소프트웨어로 구현되었다. 오른쪽 엉덩이 부분에 가속도계 센서를 장착한 14명이 참가한 실험 결과 분석에서, 예상과 다르게 아무런 전처리를 하지 않은 경우가 인식률이 높은 것으로 나타났다.
Optimal Video Delivery in Mobile Networks Using a Cache-Accelerated Multi Area eMBMS Architecture
학술 2014. 10. 21. 13:32AIAI 2014
그리스 국영통신사 OTE 등
개요
LTE는 가변 LTE bit rate와 SFN, 그리고 캐리어 가변 설정 등을 지원하는 eMBMS로 진화하였다. 복수의 eMBMS 서비스 지역은 CDN 측면에서 효율적인 스펙트럼 활용과 방송/푸시 미디어 전송을 가능하게 한다.
콘텐트 캐싱은 콘텐트를 엔드유저 쪽에 가깝게 가져옴으로써 서비스 성능과 지연을 향상시키는 기법이다. 캐시에는 hierarchical/distributed caching이 있다.
LiveCity라는 European Reaserch Project가 본 연구의 타깃이다. (ON/OFF 소스모델)
본 연구는 ON/OFF 모델 서비스에서 최적의 캐시 사이즈를 결정하는 간단한 알고리듬을 제안한다.
2005년 3GPP는 UMTS에서의 multimedia broadcast/multicast (MBMS) 서비스를 정의했다. MBMS는 eMBMS로 진화.
eMBMS는 다음을 지원:
- 향상된 성능
- 더 높은 가변 LTE 비트레이트
- SFN (MBSFN) - MBMS의 cell-edge problem을 극복하여 채널 용량을 3~4배까지도 늘릴 수 있음
- 가변 캐리어 설정
Qualcomm과 Ericsson은 MWC 2012에서 eMBMS 솔루션 전시.
2011 CAIP
[개요]
목표는 Kinect calibration.
열심히 calibration해서 manufacturer calibration data와 비교, 결과가 비슷함을 보이고 있다.
Manufacturer calibration data를 그냥 쓰면 될 것 같은데... -.-
depth discontinuity 정보를 쓰지 않기 때문에 robust하다고 주장.
[정보]
Kinect는 depth가 아닌 disparity를 제공한다...?!
그 관계는 z = 1/α(d-β) 라는군.
[방법]
1. initial calibration of color camera with Zhang
2. initial calibration of depth camera with user-pointed 4 corners (with Zhang)
3. relative transformation Tc and Td obtained
4. non-linear minimization of depth camera (d-d')
: 2번에서 rough하게나마 metric calibration이 되었으니 모든 (체커보드) 코너들에 대한 3D좌표가 있을것이다.
: 즉 체커보드 코너의 3D 좌표를 depth 좌표계로 바꿀 수 있다.
: rough한 depth cam의 intrinsic도 있으므로 reprojection이 가능. 즉 d'을 얻을 수 있다.
: 실제 센서로부터 얻은 disparity d와 비교한다.
5. non-linear minimization over all parameters
sftool를 입력하여 실행하거나, 그림과 같이 시작 > 툴박스 > curve fitting > surface fitting tool 로부터 열자.
load franke를 입력하면 x,y,z에 예제 데이터가 로드된다.
x,y에 대한 z의 변화를 다항식 등으로 피팅하는 것이 목적이다.
여러 가지 fitting 또는 interpolation 방법을 선택할 수 있다.
우선 linear interpolation:
cubic interpolation:
1차 다항식:
2차 다항식:
5차 다항식:
차수가 증가함에 따라 SSE가 줄어드는 것을 볼 수 있다.
혹시 양넘들이 보고 뭔가 틀린걸 지적해줄지도 모르므로 영어로 써본다.
How the projection center of a camera moves while zooming, when it is modeled as a pinhole camera?
Here's a common misunderstanding:
If this is the case, the projection center will move forward while zooming. Actually it doesn't, in a real zoom camera.
Here's a simplified zoom lens:
When it is zoomed in or out, the 'incidental' filed of view will change like this:
Then the pinhole will move backward while zooming-in, just as the real zoom camera.
논문 볼 때 PDF에 형광펜 쳐가면서 보는데,
가끔씩 (보안)이라 표시되면서 주석을 달 수 없는 경우는 상당히 짜증난다.
논문을 훔친 것도 아니고 다 돈 내고 받는 건데...
잡스러운
이 사이트가 최고:
http://www.pdfunlock.com/
형광펜 마구 칠해야지 잇힝~
MVG says (Ch 12.1, p.311):
It is clear, particularly for projective reconstruction, that it is inappropriate to minimize errors in the 3D projective space, P3. For instance, the method that finds the midpoint of the common perpendicular to the two rays in space in not suitable for projective reconstruction, since concepts such as distance and perpendicularity are not valid in the context of projective geometry. In fact, in projective reconstruction, this method will give different results depending on which particular projective reconstruction is considered - the method is not projective-invariant.
On the second thought, I realized that the (minimizing the distance between the backprojected rays) idea might be equivalent to minimizing the distances between the points and corresponding epipolar lines.
Then... why the trivial solution does not occur in the epipolar case?
BRIEF는 (바이트 단위로 재구성된) 바이너리 스트링이기 때문에 FLANN을 사용하는 것은 어려울 듯.
ㅠㅠ
해결 방안은
1. SURF로 해본다. --> 일단은 이쪽으로 MH를 실험.
2. 다른 ANN 라이브러리를 찾는다.
http://opencv-users.1802565.n2.nabble.com/FLANN-help-td6185055.html
Try to take a look at original FLANN documentation at FLANN site, but I'm pretty sure about it.
Walter
-----
Walter Lucetti
http://www.robot-home.it
-----
Inviato da Samsung Galaxy Tab
"huck.wach" <[hidden email]> ha scritto:>I can make it work using SURF descriptors rather than BRIEF descriptors. And the only difference I can tell is that BRIEF uses 1 byte descriptors and SURF uses 4 byte. It seems like FLANN is expecting the 4 byte ones. I suppose I can convert the brief ones to 4 byte but that seems not the best option. Is there a way to ask FLANN to work with the 1 byte descriptors of BRIEF?
https://code.ros.org/trac/opencv/ticket/978
Ticket #978 (reopened enhancement)
Crash when using BruteForce-Hamming or BruteForce-HammingLUT descriptor matchers
Reported by: | tijszwinkels | Owned by: | mdim |
---|---|---|---|
Priority: | minor | Component: | samples |
Version: | SVN (trunk) | Keywords: | descriptor matcher compatibility |
Cc: | yvonnic2m@… |
Description ¶
This crash can easily be reproduced with the matching_to_many_images sample program.
Both:
matching_to_many_images SURF SURF BruteForce?-Hamming foo.jpg foo.txt foodir
and
matching_to_many_images SURF SURF BruteForce?-HammingLUT foo.jpg foo.txt foodir
fail with the following error:
OpenCV Error: Assertion failed (DataType?<ValueType?>::type == queryDescriptors.type()) in commonKnnMatchImpl, file /home/tijs/src/OpenCV-svn/opencv/opencv/modules/features2d/include/opencv2/features2d/features2d.hpp, line 2132
terminate called after throwing an instance of 'cv::Exception'
what(): /home/tijs/src/OpenCV-svn/opencv/opencv/modules/features2d/include/opencv2/features2d/features2d.hpp:2132: error: (-215) DataType?<ValueType?>::type == queryDescriptors.type() in function commonKnnMatchImpl
Aborted
OpenCV version: Latest SVN (trunk@4844)
Kernel 2.6.32 x86_64
gcc version 4.4.3 (Ubuntu 4.4.3-4ubuntu5)
Built with: SSE2 SSE3 SSSE3 TBB and CUDA among others.