| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
- google apps script
- Kotlin
- matplotlib
- c#
- PANDAS
- GIT
- Tkinter
- math
- gas
- dataframe
- list
- Java
- 파이썬
- Redshift
- Github
- Google Excel
- Presto
- PostgreSQL
- numpy
- django
- SQL
- Excel
- string
- Apache
- Google Spreadsheet
- hive
- Python
- PySpark
- array
- Today
- Total
목록Requests (3)
달나라 노트
WEB을 다루다 보면 API를 호출해서 데이터를 불러올 때가 있는데 이때 아래처럼 내가 받은 데이터가 깨져 보일 때가 있습니다. 이를 해결할 수 있는 두 가지 방법을 봐보겠습니다. 첫 번째 방법입니다. b'\xc2\xd4\xb5\xa0/\xc6\xdf\xb2\xe2\xb0\xb6\xba\xb5' 맨 앞에 b가 붙었다는 것은 바이트(byte) type의 데이터라는 의미입니다. Encoding을 바꿔주면 해결할 수 있습니다. import requestsurl = 'https://apihub.kma.go.kr/api/typ01/url/fct_afs_wl.php'params = { 'tmfc1': '2024042200', 'tmfc2': '2024042223', 'mode': '0', ..
https://cosmosproject.tistory.com/158?category=953474 Python : Web page의 HTML 코드를 가져오기. import requests from bs4 import BeautifulSoup as bs URL = "https://www.naver.com" rq = requests.get(URL) soup = bs(rq.content, 'html.parser') print(soup) 어떤 Web 페이지의 HTML 코드를 가져오기 위해.. cosmosproject.tistory.com 위 링크에서 web page의 HTML 코드를 crawling해오는 내용을 다뤘습니다. https://cosmosproject.tistory.com/159?category=953..
import requests from bs4 import BeautifulSoup as bs URL = "https://www.naver.com" rq = requests.get(URL) soup = bs(rq.content, 'html.parser') print(soup) 어떤 Web 페이지의 HTML 코드를 가져오기 위해선 위처럼 requests와 bs4 libarary를 사용합니다. URL = "https://www.naver.com" rq = requests.get(URL) 위 부분은 정해진 URL에 대한 웹 자원을 요청하여 가져오는 역할을 합니다. soup = bs(rq.content, 'html.parser') print(soup) 그리고 BeautifulSoup의 기능을 사용합니다. 먼저 r..