카테고리 없음
[C언어] 프로그램 실행시간 측정하기
s뽈록이s
2013. 5. 24. 11:44
void main() { int i; time_t t1, t2; time(&t1); printf("프로그램 시작\n"); for (i = 0; i < 1000; i++) { printf("시간 끌기\t"); } time(&t2); printf("프로그램 종료\n"); printf("총 %.2f초가 걸렸습니다.", difftime(t2, t1)); }
프로그램 실행화면
가끔 프로그램의 연산이 길어지다 보면 오랫동안 실행을 해야 하는 경우가 있다. 그래서 프로그램의 실행시간을 알아내고 싶은 경우가 있다. 이럴 때 사용하는 것이 time()함수이다.
이전에도 time()에 대한 포스팅을 했지만 time()함수는 초단위로 반환하여 준다.
그렇기 때문에 프로그램 시작점에서 한번 time()함수를 호출하고 프로그램 끝점에서 한번 time()함수를 호출하여 주어 그 차이를 구한다면 프로그램 실행 시간을 구할 수 있다.
다만 초단위 이기 때문에 그 이하의 단위는 버림이 된다. difftim()함수가 있는데 그냥 쉽게 말해 t2 - t1를 해주는 함수이다.
이를 출력할 때 %f가 아니라 %.2f 를 해주었는데 이는 소수점 2째자리까지 출력해 주라는 뜻이다.