group byで一意のIDの累積合計を取得するにはどうすればよいですか?

2019年03月08日に質問されました。  ·  閲覧回数 1k回  ·  ソース

Analytics_TM picture
2019年03月08日

私は、次のようなパンダデータフレームで作業しているPythonとパンダに非常に慣れていません。

Date     Time           ID   Weight
Jul-1     12:00         A       10
Jul-1     12:00         B       20
Jul-1     12:00         C       100
Jul-1     12:10         C       100
Jul-1     12:10         D       30
Jul-1     12:20         C       100
Jul-1     12:20         D       30
Jul-1     12:30         A       10
Jul-1     12:40         E       40
Jul-1     12:50         F       50
Jul-1     1:00          A       40

日付、時刻、IDでグループ化を達成し、累積合計を適用して、次のタイムスロットにIDが存在する場合に、重みが1回だけ(一意に)追加されるようにしようとしています。 結果のデータフレームは次のようになります

Date     Time           Weight   
Jul-1     12:00         130     (10+20+100)
Jul-1     12:10         160     (10+20+100+30)
Jul-1     12:20         160     (10+20+100+30)
Jul-1     12:30         160     (10+20+100+30)
Jul-1     12:40         200     (10+20+100+30+40)
Jul-1     12:50         250     (10+20+100+30+40+50)
Jul-1     01:00         250     (10+20+100+30+40+50)

これは私が以下で試したものですが、これはまだ重みを複数回カウントしています:

df=df.groupby(['date','time','ID'])['Wt'].apply(lambda x: x.unique().sum()).reset_index()
df['cumWt']=df['Wt'].cumsum()

どんな助けでも本当にありがたいです!

よろしくお願いします!!

回答

Daniel Labbe picture
2019年03月08日
3

以下のコードは、 pandas.duplicate()pandas.merge()pandas.groupby / sum 、およびpandas.cumsum()を使用して、目的の出力を

# creates a series of weights to be considered and rename it to merge
unique_weights = df['weight'][~df.duplicated(['weight'])]
unique_weights.rename('consider_cum', inplace = True)

# merges the series to the original dataframe and replace the ignored values by 0
df = df.merge(unique_weights.to_frame(), how = 'left', left_index=True, right_index=True)
df.consider_cum = df.consider_cum.fillna(0)

# sums grouping by date and time
df = df.groupby(['date', 'time']).sum().reset_index()

# create the cumulative sum column and present the output
df['weight_cumsum'] = df['consider_cum'].cumsum()
df[['date', 'time', 'weight_cumsum']]

次の出力を生成します。

enter image description here