이번에는
PageSpeed Insights를 이용하여 배포중인 사이트의 성능을 개선해보자,

우선 검색할 URL을 적고 분석을 누르면



모바일에서의 환경, 데스크톱에서의 환경
두 환경의 점수를 볼 수 있다.
일단 간략하게 성능을 점수로 보여준다.
필자가 배포중인
https://mezzang.com 사이트는
성능 점수 부분에서 pc는 우수하게 나오는데 유독 모바일에서는 어쩐지 점수가 낮게 나온다.

이렇게 자세하게 항목별로 자세하게 나온다!

렌더링 지연 시간이 늘어난 부분 때문에 성능 점수가 낮게 나온 것을 알 수 있다.
사실 블로그 작성하기 전에 사전에 조치를 취한다고 해봤는데
전혀 고쳐지지 않았다..ㅠㅠ
이번에는 크롬 개발자 도구를 이용해서 알아보자
성능 탭에서 확인 가능하다.
이렇게 어떤 부분이 레이아웃이 변경되는지 알 수 있다

또한 트리맵을 클릭하면 사이트의 트리맵도 볼 수 있다.


여기서 robots.txt란
웹사이트 관리자가 검색 엔진 크롤러(예: Googlebot)가 웹사이트의 특정 페이지를 크롤링하거나 인덱싱하지 않도록 지시할 수 있는 텍스트 파일이다.
웹사이트의 루트 디렉토리에 위치하고,
크롤러가 방문할 때 먼저 이 파일을 확인하여 크롤링 허용 범위를 결정한다.
robots.txt 의 두가지 내용을 살펴보자,
User-agent: *
Disallow: /private/
User-agent: *
Allow: /
User-agent : *
모든 크롤러에 적용한다는 뜻
Allow : /
사이트의 모든 페이지 크롤링 허용한다는 뜻
Disallow : /private/
모든 검색 엔진 크롤러에게 /private/ 디렉토리 내의 URL을 크롤링하지 말라는 요청한다.
주의점
robots.txt 파일은 보안 수단이 아니라 권고사항이므로,
이를 무시하는 일부 크롤러는 접근할 수도 있다.
따라서 민감한 데이터는 서버 수준의 접근 제어나 인증 절차를 통해 보호하는 것이 더 안전하다.
그렇게 수정할 부분을 최대한 수정해주면

100점을 달성하고 싶었지만, 그래도 만족.
사이트를 업데이트 할 때 마다
한번씩 돌려봐서 개선할 사항이 있는지 찾아봐야겠다.
목표는 100점으로..
'프로젝트' 카테고리의 다른 글
| 개인 프로젝트 - 소스 코드 난독화(React) (0) | 2024.07.03 |
|---|---|
| 개인 프로젝트 - 메이플 검색 사이트(OPEN API) (0) | 2024.05.16 |