일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- PANDAS
- Apache
- SQL
- Mac
- hive
- gas
- GIT
- matplotlib
- numpy
- c#
- Python
- PySpark
- Google Spreadsheet
- dataframe
- Java
- Redshift
- 파이썬
- Github
- string
- list
- math
- Google Excel
- google apps script
- Excel
- django
- PostgreSQL
- array
- Tkinter
- Kotlin
- Today
- Total
목록Columns (3)
달나라 노트
Pandas의 columns는 DataFrame에 존재하는 Column의 정보를 출력해줍니다. import pandas as pddict_test = { 'col1': [1, 2, 3, 4, 5], 'col2': [2, 3, 4, 5, 6],}df_test = pd.DataFrame(dict_test)print(df_test)print(df_test.columns)-- Result col1 col20 1 21 2 32 3 43 4 54 5 6Index(['col1', 'col2'], dtype='object') list() method를 이용해서 column을 list의 형태로 만들 수도 있습니다. import ..
worksheet 객체의 columns 속성을 이용하면 현재 담겨진 dataset의 모든 column에 대한 객체를 얻어옵니다. 각각의 column 객체는 해당 column에 존재하는 cell 객체들이 tuple에 담겨있는 형태로 존재합니다. import pandas as pd dict_test = { 'col1': [1, 2, 3, 4, 5], 'col2': ['apple', 'banana', 'cloud', 'drizzle', 'electron'], 'col3': [1234, 0.27383720, 39372, None, 102947291.293472], 'col4': [0.9, 0.5238, 0.13, 0.0028, 1024.29278], } df_test = pd.DataFrame(dict_test..
spark dataframe의 columns 속성을 이용하면 spark dataframe에 있는 column들의 list를 얻을 수 있습니다. (pandas dataframe의 columns랑 비슷합니다.) from pyspark.sql import SparkSession import pandas as pd spark = SparkSession.builder.getOrCreate() df_test = pd.DataFrame({ 'a': [1, 2, 3], 'b': [10.0, 3.5, 7.315], 'c': ['apple', 'banana', 'tomato'] }) df_spark = spark.createDataFrame(df_test) list_columns = df_spark.columns prin..