일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- matplotlib
- GIT
- google apps script
- math
- Kotlin
- PySpark
- list
- Google Excel
- numpy
- c#
- Tkinter
- PostgreSQL
- Google Spreadsheet
- hive
- Java
- Github
- Python
- PANDAS
- Mac
- string
- django
- Redshift
- gas
- SQL
- array
- dataframe
- Excel
- 파이썬
- Apache
- Today
- Total
목록Columns (2)
달나라 노트
worksheet 객체의 columns 속성을 이용하면 현재 담겨진 dataset의 모든 column에 대한 객체를 얻어옵니다. 각각의 column 객체는 해당 column에 존재하는 cell 객체들이 tuple에 담겨있는 형태로 존재합니다. import pandas as pd dict_test = { 'col1': [1, 2, 3, 4, 5], 'col2': ['apple', 'banana', 'cloud', 'drizzle', 'electron'], 'col3': [1234, 0.27383720, 39372, None, 102947291.293472], 'col4': [0.9, 0.5238, 0.13, 0.0028, 1024.29278], } df_test = pd.DataFrame(dict_test..
spark dataframe의 columns 속성을 이용하면 spark dataframe에 있는 column들의 list를 얻을 수 있습니다. (pandas dataframe의 columns랑 비슷합니다.) from pyspark.sql import SparkSession import pandas as pd spark = SparkSession.builder.getOrCreate() df_test = pd.DataFrame({ 'a': [1, 2, 3], 'b': [10.0, 3.5, 7.315], 'c': ['apple', 'banana', 'tomato'] }) df_spark = spark.createDataFrame(df_test) list_columns = df_spark.columns prin..