-
Notifications
You must be signed in to change notification settings - Fork 0
/
main_modul1-2-3_stromlastgang_ghd.py
1758 lines (1443 loc) · 63.4 KB
/
main_modul1-2-3_stromlastgang_ghd.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
"""
Dieser Programmcode orientiert sich an drei Modulen nach Böckmann u.a. (2021) sowie Seim u.a. (2021):
1. Entwicklung branchen- und technologiespezifischer Lastprofile des deutschen GHD-Sektors im Jahr 2018
2. Fortschreibung der Lastprofile bis 2035 anhand von zwei literaturbasierten Energieverbrauchsszenarien
3. Quantifizierung zeitlich hochaufgelöster Nachfrageflexibilisierungspotenziale mithilfe eines Ansatzes nach Kleinhans, (2014)
Das Programm verfügt über zwei Hauptmethoden (Lastgangsynthese und Szenario-Nachfrageflexi). Die erste Hauptmethode entspricht je nach gewählten Verhaltensparametern einem Modellschritt des ersten Moduls. Die zweite Hauptmethode führt Module zwei und drei aus.
Das Programm verfügt über zwei Hauptmethoden (Lastgangsynthese und Szenario-Nachfrageflexi).
Die erste Hauptmethode entspricht je nach gewählten Verhaltensparametern einem Modellschritt
des ersten Moduls. Die zweite Hauptmethode führt Module zwei und drei aus.
Die ersten beiden Modellierungsschritte des ersten Moduls der Arbeit sind mit Annahmen verbunden.
Im ersten Schritt, der Entwicklung von Bottom-up-Lastprofilen, werden literaturbasierte Annahmen als Teil der
Technologiedaten getroffen. Im zweiten Schritt werden die Lastprofile um strukturelle Annahmen ergänzt, die
aus einem Vergleich mit den Branchenlastprofilen des Forschungsprojekts "DemandRegio" abgeleitet werden.
Die genauen Annahmen werden von Böckmann u.a. (2021) beschrieben. Zur besseren Nachvollziehbarkeit der Modellierung
ist jede Annahme mit einem Kürzel innerhalb dieses Programms versehen. kuerzel_tabelle fasst diese Anmerkungen zusammen
und ist zusätzlich im Jupyter Notebook der entsprechenden main-Datei abgebildet.
"""
# In[FirstRun = True]
"""
First Run ist eine Hilfsvariable, die sicherstellt, dass beim "Run File (Run All)" nicht die Main-Methoden
ausgeführt werden. Zur Benutzung bitte wie folgt vorgehen:
0. Pfad zur Input- und Output-Umgebung aktualisieren (siehe unten "Settings").
1. Run File - Damit werden alle Excel- und SQL-Daten importiert sowie die Objekte initialisiert.
2. Settings auf gewünschte Funktion einstellen und Zelle ausführen.
3. Jeweilige Main Methode einzeln mithilfe "Run Cell" (Strg+Enter) ausführen.
Hinweis: Bitte zwischen den Veränderungen der Settings alle lokal gespeicherten Variablen löschen.
Idealerweise Vorgehen in der Reihenfolge der Arbeit:
1. Lastgangsynthese | Settings: [ownAssumptions: False, doOptimize: False (Bottom-up-Lastprofile)]
2. Lastgangsynthese | Settings: [ownAssumptions: True, doOptimize: False (Lastprofile mit strukturellen Annahmen)]
3. Lastgangsynthese | Settings: [ownAssumptions: True, doOptimize: True (Lastprofile mit strukturellen Annahmenä
nach einer Hyperparameteroptimierung)]
4. Szenario - Nachfrageflexi
Hinweis: Alle Einheiten der Berechnung entsprechen den Einheiten der verwendeten Anwendungsbilanzen.
Innerhalb dieser Arbeit liegen alle AWBs in PJ/a vor, weshalb die Einheit der Lastprofile zunächst ebenfalls PJ entspricht.
"""
firstRun = True
# In[Python Importe]:
"""
Alle wichtigen Pakete werden importiert.
"""
import pandas as pd
import numpy
from numpy import genfromtxt
import matplotlib.pyplot as plt
from IPython import get_ipython
import seaborn as sns
import xlsxwriter
from datetime import datetime
from sklearn.model_selection import ParameterGrid
from sklearn.metrics import r2_score
import os
import math
import sqlalchemy
get_ipython().run_line_magic('matplotlib', 'qt')
# In[Model]:
"""
Klasse, mit der Jahresinstanzen der Gleichzeitigkeitsfaktoren erzuegt werden.
a: 96 Werte an a-Tagen
b: 96 Werte an b-Tagen
c: 96 Werte an c-Tagen
d: 365*96 Werte in Jahresreihenfolge
total: numpy.stack(datetime, schedule, jahreswerte, ...)
"""
class Model:
def __init__(self, a, b, c, jahr, total):
self.a = a
self.b = b
self.c = c
self.jahr = jahr
self.total = total
# In[Settings]:
"""
Hier können Verhaltenoptionen des Modells eingestellt werden. Bitte unbedingt vor dem
erstmaligen Ausführen den Pfad der Input- und Output-Dateien anpassen. Außerdem vor jedem
kompletten Ausführen des Modells (Run File) die zwischengespeicherten Variablen löschen.
Empfehlenswert ist die Ausführung einzelner Zellen, da die Importe mitunter rechenintensiv
sind und im Fall von "SQL Weather Import" einen Internetanschluss benötigen.
"""
absDemand = True # True: Jahresverbräuche werden absolut ermittelt. False: Nur Gleichzeitigkeitsfaktoren werden in Profilen berechnet
doOutput = True # Ob Excel-Output erzeugt werden soll, sollte bei True stehen
ownAssumptions = True # True Bottom-up - Ob eigene Annahmen mit einbezogen werden sollen oder nicht
doOptimize = True # True Bottom-up - Ob eine Optimisierung der Hyperparameter factSia, factDIn, factGS durchgeführt wird
defaultFactSia = 0.5 # ADefault_SIA (LambdaSIA)
defaultFactDin = 0.5 # ADefault_DIN (LambdaDIN)
defaultFactGS = {85: 0.8, 6471: 0.5, 86: 0.2, 47: 0, 55: 0.8} # ADefault_GS (LambdaGS) - Bei 47 wird GS ohnehin nicht beachtet wegen AL_47.1 und AL_47.2
inputEnv = 'C:/Users/xy/Excel_Input' # Bitte anpassen
outpathEnv = 'C:/Users/xy/Code' # Bitte anpassen
# In[Rescaling Funktion]:
def rescale_to(inputlist, n):
"""
Rescaling Funktion, die eine Liste mit linearer Interpolation auf gewünschte
Länge streckt. In diesem Programm verwendet, um Listen mit stündlichen Werten mittels
linearer Interpolation auf viertelstündliche Werte zu strecken.
Parameters
----------
inputlist : list
Liste, die reskaliert werden soll.
n : int
Ganzzahl n, die die Länge der reskalierten Liste bestimmt.
Returns
-------
out : list
Die reskalierte Liste.
"""
long = [0] * n
m = len(inputlist)
for i, x in enumerate(inputlist):
long[i*(n)//(m)] = x
count = 0
for i in range(n):
if i < n-4:
if count == 0:
m = long[i+4] - long[i]
yachsenabschnitt = long[i]
long[i] = m*count + yachsenabschnitt
count = count + 0.25
if count == 1:
count = 0
elif i >= n-4:
long[i] = long[n-4]
out = long
return out
# In[Solarradiation-Influence Funktion]:
def influence_transform_sol(inputlist, i_max, i_min):
"""
Influence Funktion - für Solarradiation: Stellt den Einfluss der Solarradiation als
Funktion dar, mit der die Beleuchtung multipliziert werden kann. Wenig Solarradiation bildet ab
auf 1 und viel Solarradiation auf 0. Begrenzt über maximalem Schwellenwert
auf 0 und unter minimalem Schwellenwert auf 1. Dazwischen erfolgt eine lineare Skalierung.
Parameters
----------
inputlist : list
Liste mit Werten der Solarradiation.
i_max : TYPE
Oberer Schwellenwert, über dem die Transformation 0 abbildet.
i_min : TYPE
Unterer Schwellenwert, unter dem die Transformation 1 abbildet.
Returns
-------
solarlist : list
Die transformierte Funktion des Einflusses der Solarradiation auf die Beleuchtung.
"""
solarlist = inputlist.copy()
for i in range(len(solarlist)):
if solarlist[i] > i_max:
solarlist[i] = 0
elif solarlist[i] < i_min:
solarlist[i] = 1
else:
solarlist[i] = (i_max - solarlist[i])/(i_max - i_min)
return solarlist
# In[Temperatur-Influence Funktion]:
def influence_transform_ac(inputlist):
"""
Influence Funktion - für Temperatur (Klimakälte): Begrenzt über maximalem Schwellenwert (24) auf 1
und unter minimalem Schwellenwert (21) auf 0.
Dazwischen lineare Skalierung zwischen 0,6 und 1. Quelle: Ladwig, (2017), S. 51, 197
Parameters
----------
inputlist : list
Liste der Außenlufttemperatur.
Returns
-------
aclist : list
Liste der Gleichzeitigkeitsfaktoren der Klimakälte.
"""
aclist = inputlist.copy()
for i in range(len(aclist)):
if aclist[i] > 24:
aclist[i] = 1
elif aclist[i] < 21:
aclist[i] = 0
elif 21 <= aclist[i] <= 24:
aclist[i] = (aclist[i]*(0.4/(24-21))-2.2)
return aclist
# In[Wärme-Influence Funktion]:
def influence_transform_heating(inputlist, wz):
"""
Influence-Funktion - für Temperatur (Raumwärme): Begrenzt über oberem Schwellenwert
(entnommen aus DIN 18599-10) auf 0 und darunter lineare Skalierung bis 0° Celsius.
Parameters
----------
inputlist : list
Liste der Außenlufttemperaturwerte, die transformiert werden soll.
wz : int
Ganzzahl des Wirtschaftsszweigs nach Klassifikation der Wirtschaftszweige (WZ 2008).
Returns
-------
heatlist : list
Liste der Gleichzeitigkeitsfaktoren der Raumwärme.
"""
heatlist = inputlist.copy()
if wz in {6471, 55, 47, 85, 56, 91, 90}: # Entnommen aus DIN18599-10
threshold = 21
if wz == 86:
threshold = 22
if wz == 93:
threshold = 19
for i in range(len(heatlist)): # ASH_2
if 0 <= heatlist[i] and heatlist[i] < threshold:
heatlist[i] = (heatlist[i]-threshold)/(0-threshold)
if heatlist[i] < 0:
heatlist[i] = 1
if heatlist[i] >= threshold:
heatlist[i] = 0
return heatlist
# In[Annahme-Einfügen Funktion]:
def insert_assumption(inputlist, time_start, time_end, value):
"""
Insert Funktion - um annahmenbasierte Gleichzeitigkeitsfaktoren in einen vorhandenen Lastgang
einzufügen und den Übergang zu den Originalwerten zu glätten.
Parameters
----------
inputlist : list
Liste der ursprünglichen Gleichzeitigkeitsfaktoren.
time_start : float
Zeitpunkt des Beginns der einzufügenden Annahme in Stunden.
time_end : float
Zeitpunkt des Endes der einzufügenden Annahme in Stunden.
value : float
Einzufügender Dynamisierungsfaktor während des vorgegebenen Zeitraums.
Returns
-------
x : list
Liste der neuen Gleichzeitigkeitsfaktoren.
"""
ts = max((4*time_start)-1, 0)
te = (4*time_end)-1
x = numpy.array(inputlist, dtype='float64').copy()
y = 0
count = 0.25
og_s = x[ts]
m = float(value - og_s)
for i in range(4):
x[ts+y] = og_s + m*count
x[te+y] = value + (-1*m)*count
count = count+0.25
y = y+1
x[ts+4:te] = value
return x
# In[Zeitraum-Durchschnitts-Funktion]:
def get_avg_resJahres(resJahresArg, tag1, tag2, sched):
"""
get_avg_Resulting_Jahres-Funktion - berechnet die durchschnittlichen
Lasten innerhalb eines Zeitraums.
Parameters
----------
resJahresArg : list
Liste der Last des gesamten Jahres.
tag1 : string
Datum in Datetime Format, Start des zu mittelnden Zeitraums.
tag2 : string
Datum in Datetime Format, Ende des zu mittelnden Zeitraums.
sched : string
Typtag als String ('a', 'b', 'c'), über den gemittelt wird.
Returns
-------
out : list
Liste der Länge 96, also einem durchschnittlichen Tag.
"""
out = numpy.zeros(96)
daycount = 0
tsTag1 = pd.Timestamp(tag1)
tsTag2 = pd.Timestamp(tag2)
for i in range(365):
if i in range(tsTag1.dayofyear, tsTag2.dayofyear) and sched in resJahresArg[i*96, 1]:
out = out + resJahresArg[i*96:(i+1)*96, 2]
daycount = daycount+1
out = out/daycount
return out
# In[Create Dataframe Funktion]:
def create_DataFrame(modeltotal):
"""
Erstellt aus einem Modell ein komplettes Pandas DataFrame mit Flags wie
Saison, Typtag und den Querschnittstechnologien. Wird in der Funktion model_energy_demand verwendet.
Parameters
----------
modeltotal : Model
Eine Instanz der Klasse 'Model'.
Returns
-------
datasetTotal : DataFrame
Das komplette DataFrame.
"""
day = pd.date_range("00:00", "23:45", freq="15min").strftime('%H:%M')
winterA = ((get_avg_resJahres(modeltotal, '2018-01-01', '2018-02-28', 'a') +
get_avg_resJahres(modeltotal, '2018-12-01', '2018-12-31', 'a'))/2)
winterB = ((get_avg_resJahres(modeltotal, '2018-01-01', '2018-02-28', 'b') +
get_avg_resJahres(modeltotal, '2018-12-01', '2018-12-31', 'b'))/2)
winterC = ((get_avg_resJahres(modeltotal, '2018-01-01', '2018-02-28', 'c') +
get_avg_resJahres(modeltotal, '2018-12-01', '2018-12-31', 'c'))/2)
fhA = ((get_avg_resJahres(modeltotal, '2018-03-01', '2018-05-31', 'a') +
get_avg_resJahres(modeltotal, '2018-09-01', '2018-11-30', 'a'))/2)
fhB = ((get_avg_resJahres(modeltotal, '2018-03-01', '2018-05-31', 'b') +
get_avg_resJahres(modeltotal, '2018-09-01', '2018-11-30', 'b'))/2)
fhC = ((get_avg_resJahres(modeltotal, '2018-03-01', '2018-05-31', 'c') +
get_avg_resJahres(modeltotal, '2018-09-01', '2018-11-30', 'c'))/2)
sommerA = get_avg_resJahres(modeltotal, '2018-06-01', '2018-08-30', 'a')
sommerB = get_avg_resJahres(modeltotal, '2018-06-01', '2018-08-30', 'b')
sommerC = get_avg_resJahres(modeltotal, '2018-06-01', '2018-08-30', 'c')
dWA = pd.DataFrame({'Zeit': day, 'Tagtyp': 'a', 'Saison': 'Winter', 'Werte': winterA})
dWB = pd.DataFrame({'Zeit': day, 'Tagtyp': 'b', 'Saison': 'Winter', 'Werte': winterB})
dWC = pd.DataFrame({'Zeit': day, 'Tagtyp': 'c', 'Saison': 'Winter', 'Werte': winterC})
dFHA = pd.DataFrame({'Zeit': day, 'Tagtyp': 'a', 'Saison': 'Frühling & Herbst', 'Werte': fhA})
dFHB = pd.DataFrame({'Zeit': day, 'Tagtyp': 'b', 'Saison': 'Frühling & Herbst', 'Werte': fhB})
dFHC = pd.DataFrame({'Zeit': day, 'Tagtyp': 'c', 'Saison': 'Frühling & Herbst', 'Werte': fhC})
dSA = pd.DataFrame({'Zeit': day, 'Tagtyp': 'a', 'Saison': 'Sommer', 'Werte': sommerA})
dSB = pd.DataFrame({'Zeit': day, 'Tagtyp': 'b', 'Saison': 'Sommer', 'Werte': sommerB})
dSC = pd.DataFrame({'Zeit': day, 'Tagtyp': 'c', 'Saison': 'Sommer', 'Werte': sommerC})
datasetTotal = pd.concat([dWA, dWB, dWC, dFHA, dFHB, dFHC, dSA, dSB, dSC])
return datasetTotal
# In[APE Funktion]:
def ape(y_true, y_pred):
"""
Absolute Percentage Error Funktion - gibt einen Numpy-array der individuellen
absoluten prozentualen Abweichung jeder Zeitscheibe zurück. Der Durchschnittswert aller APE
ist dann der MAPE.
Parameters
----------
y_true : list
Liste der Trainingsdaten (im Rahmen dieses Modells die Branchenlastgänge
des Demand Regio Projektes).
y_pred : list
Liste der Testdaten (im Rahmen dieses Modells die bottom-up synthetisierten
Lastgänge einer Branche).
Returns
-------
numpy.array
Array der individuellen prozentualen Abweichungen.
"""
y_true, y_pred = numpy.array(y_true), numpy.array(y_pred)
return numpy.abs((y_true - y_pred) / y_true)
# In[MAPE Funktion]:
def mape(y_true, y_pred):
"""
Mean Absolute Percentage Error Funktion - gibt ein Skalar der gemittelten
absoluten prozentualen Abweichungen zurück.
Parameters
----------
y_true : list
Liste der Trainingsdaten (im Rahmen dieses Modells die Branchenlastgänge
des Demand Regio Projektes).
y_pred : list
Liste der Testdaten (im Rahmen dieses Modells die bottom-up synthetisierten
Lastgänge einer Branche).
Returns
-------
float
Skalar der gemittelten absoluten prozentualen Abweichung.
"""
y_true, y_pred = numpy.array(y_true), numpy.array(y_pred)
return numpy.mean(numpy.abs((y_true - y_pred) / y_true))
# In[DSM Leistungsfunktion]
def dsm_p(qst, timeMaxCapDays):
"""
Funktion, die die Leistung der maximalen Lade- oder Entladerate - Pmax und Pmin -
berechnet. Dazu wird der Lastgang einer Querschnittstechnologie als Argument übergeben
und der Zeitraum definiert, aus dem die Maximalkapazität der Technologie entnommen wird.
Hierzu eignet sich der Zeitraum eines Tages, um saisonspezifischen, also temperatur- oder
solarradiationsabhängigen Peaks gerecht zu werden.
Parameters
----------
qst : list
Liste des Lastgangs einer Querschnittstechnologie.
timeMaxCapDays : int
Ganzzahl des Zeitraums, innerhalb dessen die maximale Kapazität ausgewählt wird.
Returns
-------
pmax : numpy.array
Liste der zu jedem Zeitpunkt maximal möglichen Lasterhöhung [PJ].
pmin : numpy.array
Liste der zu jedem Zeitpunkt maximal möglichen Lastverringerung [PJ].
"""
t = 24*4
pmax = numpy.zeros(len(qst))
pmin = numpy.zeros(len(qst))
for i in range(len(qst)):
y = math.floor(i/t) # Findet die Zahl des aktuellen Tages (0-364)
"""
Als maximale Kapazität wird die Maximallast des jeweiligen Tages verwendet
(in anderen Veröffentlichungen wird stattdessen die maximal installierte Leistung als Maximalkapazität modelliert)
"""
maxCap = qst[y*t:(y + timeMaxCapDays)*t].max()
pmax[i] = (maxCap - qst[i])
pmin[i] = ((-1) * qst[i])
return pmax, pmin
# In[DSM Energiefunktion]
def dsm_e(qst, timeframeHours):
"""
Funktion, die den Energieinhalt des Energiespeicheräquivalents
der DSM-Maßnahme beschreibt. Diese ist das Integral der Laderaten Pmax und Pmin über einen festgelegten
Zeitraum der maximalen Verschiebedauer.
Parameters
----------
qst : list
Liste des Lastgangs einer Querschnittstechnologie.
timeframeHours : int
Ganzzahl der Stunden der maximalen Verschiebedauer.
Returns
-------
emax : numpy.array
Maximaler Energieinhalt des Energiespeicheräquivalents der DSM-Maßnahme [PJ/4].
emin : numpy.array
Minimaler Energieinhalt des Energiespeicheräquivalents der DSM-Maßnahme [PJ/4].
"""
t = timeframeHours*4
emax = numpy.zeros(len(qst))
emin = numpy.zeros(len(qst))
for i in range(len(qst)):
if (i+t) > (len(qst)-1):
emax[i] = (qst[((len(qst)-1)-t):(len(qst)-1)].sum() / 4)
if (i+t) <= (len(qst)-1):
emax[i] = (qst[i:(i+t)].sum() / 4) # geteilt durch 4, um auf Stundenwerte zu kommen
if i < t:
emin[i] = (-1) * (qst[(t-t):t].sum() / 4)
if i >= t:
emin[i] = (-1) * (qst[(i-t):i].sum() / 4)
return emax, emin
# In[Excel Importe]:
"""
Import der Excel Dateien für
- Anwesenheitsprofil der ISO Norm 18523-1 (Occupancy Iso)
- Beleuchtungsprofil der ISO Norm 18523-1 (Lighting Iso)
- Anwesenheitsprofil der SIA Norm Occupancy SIA
- Anwesenheitsprofile der DIN Norm DIN 18599-10:2018-09
- Klimakälteprofil nach Ladwig, (2018)
- Kalenderdaten
- Anwendungsbilanz des Jahres 2018
- Branchenlastprofile des Forschungsprojekts "DemandRegio"
- Mechanische Energie in Krankenhäusern nach Hagemeier, (2017)
- Anwendungsbilanz Referenzenario 2035
- Anwendungsbilanz Basisszenario 2035
"""
dfLight = pd.read_excel((inputEnv+'/occupancy-iso2016energy.xlsx'),
sheet_name='Lighting')
dfOccIso = pd.read_excel((inputEnv+'/occupancy-iso2016energy.xlsx'),
sheet_name='Occupancy')
dfShares = pd.read_excel((inputEnv+'/occupancy-iso2016energy.xlsx'),
sheet_name='BuildingShares')
dfOccSia = pd.read_excel((inputEnv+'/occupancy-SIA2015.xlsx'),
sheet_name='Occupancy')
dfCal = pd.read_excel((inputEnv+'/schedule_2018_15min.xlsx'),
sheet_name='main')
dfOccDin = pd.read_excel((inputEnv+'/DIN18599-10.xlsx'),
sheet_name='Python_Export')
dfHvac = pd.read_excel((inputEnv+'/hvac-ladwig2018demand.xlsx'),
sheet_name='Python_Export')
dfAnwend = pd.read_excel((inputEnv+'/anwendungsbilanzen_fraunisi2015envbghd.xlsx'),
sheet_name='Python_Export')
dfBrLast = pd.read_excel((inputEnv+'/demandRegio_Branchenlastmodelle.xlsx'),
sheet_name='Tabelle1')
dfMechEn86 = pd.read_excel((inputEnv+'/mechEn-86-hagemeier2018messdaten.xlsx'),
sheet_name='Python_Export')
dfRefSzen = pd.read_excel((inputEnv+'/Szenarien/referenzszenario_fraunisi2017langfristM3.xlsx'),
sheet_name='Python_Export')
dfBasSzen = pd.read_excel((inputEnv+'/Szenarien/basisszenario_fraunisi2017langfristM3.xlsx'),
sheet_name='Python_Export')
"""
Typtag-Kodierung nach ISO:
a = Wochentag
b = Samstag
c = Sonntag, Feiertag
"""
# Create an empty list
lightingIsoHourly = []
occupancyIsoHourly = []
occupancySiaHourly = []
buildingSharesIso = []
buildingSharesSia = []
buildingSharesDin = []
calender = []
occupancyDinHourly = []
hvacHourly = []
ambientcool = []
ventilation = []
mechEn86Hourly = []
mechEn86A = []
mechEn86BC = []
nachtspeicherheiz = []
waermepumpe = []
for i in range((dfLight.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
lightingIsoHourly.append(list(dfLight.iloc[i, :]))
for i in range((dfOccIso.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
occupancyIsoHourly.append(list(dfOccIso.iloc[i, :]))
for i in range((dfOccSia.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
occupancySiaHourly.append(list(dfOccSia.iloc[i, :]))
# Iterate over each row in Calender
for i in range((dfCal.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
calender.append(list(dfCal.iloc[i, :]))
for i in range((dfShares.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
buildingSharesIso.append(list(dfShares.iloc[i, :]))
for i in range((dfOccDin.shape[0])):
# Using iloc to access the values of
# the current row denoted by "i"
occupancyDinHourly.append(list(dfOccDin.iloc[i, :]))
for i in range((dfHvac.shape[0])):
hvacHourly.append(list(dfHvac.iloc[i, :]))
for i in range((dfMechEn86.shape[0])):
mechEn86Hourly.append(list(dfMechEn86.iloc[i, :]))
# Hourly in Quarterly umwandeln
occupancyIsoQuarterly = occupancyIsoHourly.copy()
for zeile in range(len(occupancyIsoQuarterly)):
occupancyIsoQuarterly[zeile] = occupancyIsoQuarterly[zeile][:5] + rescale_to(occupancyIsoQuarterly[zeile][5:],96)
lightingIsoQuarterly = lightingIsoHourly.copy()
for zeile in range(len(lightingIsoQuarterly)):
lightingIsoQuarterly[zeile] = lightingIsoQuarterly[zeile][:5] + rescale_to(lightingIsoQuarterly[zeile][5:],96)
occupancySiaQuarterly = occupancySiaHourly.copy()
for zeile in range(len(occupancySiaQuarterly)):
occupancySiaQuarterly[zeile] = occupancySiaQuarterly[zeile][:3] + rescale_to(occupancySiaQuarterly[zeile][3:27],96)
buildingSharesSia.append(occupancySiaHourly[zeile][1::26])
occupancyDinQuarterly = occupancyDinHourly.copy()
for zeile in range(len(occupancyDinQuarterly)):
occupancyDinQuarterly[zeile] = occupancyDinQuarterly[zeile][:3]+rescale_to(occupancyDinQuarterly[zeile][3:27],96)
buildingSharesDin.append(occupancyDinHourly[zeile][1::26])
hvacQuarterly = hvacHourly.copy()
for zeile in range(len(hvacQuarterly)):
if hvacQuarterly[zeile][0] == "ambient_cooling":
coolingLT = hvacQuarterly[zeile][25] #lower threshold
coolingHT = hvacQuarterly[zeile][26] #higher threshold
ambientcool = rescale_to(hvacQuarterly[zeile][1:25], 96)
if hvacQuarterly[zeile][0] == "ventilation":
ventilation = rescale_to(hvacQuarterly[zeile][1:25], 96)
if hvacQuarterly[zeile][0] == "nachtspeicherheizung":
nachtspeicherheiz = rescale_to(hvacQuarterly[zeile][1:25], 96)
if hvacQuarterly[zeile][0] == "waermepumpe":
waermepumpe = rescale_to(hvacQuarterly[zeile][1:25], 96)
for zeile in range(len(mechEn86Hourly)):
if mechEn86Hourly[zeile][0] == "MechEnA":
mechEn86A = rescale_to(mechEn86Hourly[zeile][1:25], 96)
if mechEn86Hourly[zeile][0] == "MechEnBC":
mechEn86BC = rescale_to(mechEn86Hourly[zeile][1:25], 96)
#Building Shares in Dictionary überführen
buildingSharesIsoDict = dict(numpy.array(buildingSharesIso)[:,1:3])
buildingSharesSiaDict = dict(numpy.array(buildingSharesSia))
buildingSharesDinDict = dict(numpy.array(buildingSharesDin))
# In[SQL Weather Import]:
"""
Import regionalisierter Wetterdaten aus dem Forschungsprojekt "DemandRegio"
"""
con = sqlalchemy.create_engine('postgresql://demandregio_read:read_demandregio@81.169.223.134/demandregio') # Lesezugriff!
sql_tp_all = """ select * FROM demandregio.demandregio_temporal as a
join demandregio.t_nuts3_lk as b on a.id_region=b.id_ags
WHERE id_temporal = 11 and year_base = 2018
"""
sql_sr_all = """ select * FROM demandregio.demandregio_temporal as a
join demandregio.t_nuts3_lk as b on a.id_region=b.id_ags
WHERE id_temporal = 17 and year_base = 2018
"""
tp_sql = pd.read_sql(sql_tp_all, con) # tp stands for temperature
sr_sql = pd.read_sql(sql_sr_all, con) # sr stands for solar radiation
tp_sql["ags_lk"] = tp_sql["ags_lk"].astype(float)
sr_sql["ags_lk"] = sr_sql["ags_lk"].astype(float)
bzeLK = pd.read_excel((inputEnv+'/BZEjeLK.xlsx'), sheet_name='BZEjeLK.xlsx')
bzeLK.loc[88] = bzeLK.sum()
for zeile in range(0, bzeLK.shape[0]):
summe = bzeLK.iloc[zeile, 1]
for spalte in bzeLK:
if spalte != "WZ" and spalte != "SUM":
bzeLK[spalte][zeile] = numpy.divide(bzeLK[spalte][zeile], (summe)) # Anteile der Landkreise an GesamtBZE der WZ
bzeLK = bzeLK.loc[88]
temperatureHourly = numpy.zeros(365*24)
globalSolar = numpy.zeros(365*24*4)
for lk in sr_sql['ags_lk']:
if lk in bzeLK.index:
tp_lk = numpy.asarray(numpy.array(tp_sql.loc[(tp_sql['ags_lk'] == lk) &
(tp_sql['internal_id'].astype('str') == '[1]') &
(tp_sql['year_base'] == 2018)]['values'])[0])
tp_lk = tp_lk * bzeLK[int(lk)]
temperatureHourly = temperatureHourly+ tp_lk
sr_lk = numpy.asarray(numpy.array(sr_sql.loc[(sr_sql['ags_lk'] == lk) &
(tp_sql['year_base'] == 2018)]['values'])[0])
sr_lk = sr_lk * bzeLK[int(lk)]
globalSolar = globalSolar + sr_lk
temperature = temperatureHourly.copy()
temperature = numpy.repeat(temperatureHourly, 4)
for j in range((365*24)-1):
y = temperature[j*4+4]
x = temperature[j*4]
k = (y - x)/4
temperature[(j*4)+1] = x + (k*1)
temperature[(j*4)+2] = x + (k*2)
temperature[(j*4)+3] = x + (k*3)
# In[Calendar]:
npcal = numpy.array(calender)
"""
Hinzufügen der Datums- und Zeittagsinformationen
"""
dateTime = npcal[:, 5]
counter = 0
for i in range(len(dateTime)):
dateTime[i] = dateTime[i] + pd.Timedelta(minutes=15*counter)
counter = counter+1
if counter == 96:
counter = 0
schedule = npcal[:, 7]
tm = []
for i in range(35040):
tm.append(npcal[i, 5].strftime(format="%H:%M"))
time = numpy.array(tm)
dte = []
for i in range(35040):
dte.append(npcal[i, 5].strftime(format="%Y-%m-%d"))
date = numpy.array(dte)
wd = []
for i in range(35040):
wd.append(datetime.strptime(date[i], "%Y-%m-%d").isoweekday())
weekday = numpy.array(wd)
seas = []
for i in range(35040):
if i <= (58*96) or i> (333*96): #Zahl der Tage ausgerechnet und mal Viertelstunden genommen
seas.append("Winter")
elif (58*96)<i<(151*96) or (242*96)<i<(334*96):
seas.append("Frühling u Herbst")
elif (150*96)<i<(243*96):
seas.append("Sommer")
season = numpy.array(seas)
# In[Occupancy]:
def model_occupancy_profile(wz,factSia, factDin):
"""
Modellierung der Gleichzeitigkeitsfaktoren der Anwesenheiten.
Parameters
----------
wz : int
Ganzzahl des Wirtschaftszweigs (6471, 47, 55, 86, 85).
factSia : float
Anteil zwischen SIA und ISO Normen, begrenzt auf Intervall [0,1]. (LambdaSIA)
factDin : float
Anteil der Minderung von Anwesenheiten außerhalb der DIN Norm, begrenzt auf Intervall [0,1].(LambdaDIN)
Returns
-------
occModel : Model
Instanz der "Model"-Klasse. Enthält Anwesenheitsprofile nach Typtagkodierung
sowie für das gesamte Jahr 2018.
"""
npOccSia = numpy.array(occupancySiaQuarterly).copy()
npOccIso = numpy.array(occupancyIsoQuarterly).copy()
npOccIsofloat = numpy.array(npOccIso[:, 5:].copy(), dtype='float64')
npOccDin = numpy.array(occupancyDinQuarterly).copy()
npOccDinfloat = numpy.array(npOccDin[:, 3:].copy(), dtype='float64')
npOccSiafloat = numpy.array(npOccSia[:, 3:].copy(), dtype='float64')
occDin = []
"""
Wirtschaftszweig auswählen und über mehrere mitteln für DIN
"""
for i in range(len(npOccDin)):
if float(npOccDin[i, 2]) == wz:
occDin.append(list(float(buildingSharesDinDict[npOccDin[i, 1]])*npOccDinfloat[i, :]))
npOccDin = numpy.array(occDin)
npOccDin = numpy.array(numpy.sum(npOccDin, axis=0))
"""
Occupancy Iso
"""
occIsoA = []
occIsoB = []
occIsoC = []
for i in range(len(npOccIso)):
if float(npOccIso[i, 4]) == wz and npOccIso[i, 2] == 'a':
occIsoA.append(list(float(buildingSharesIsoDict[npOccIso[i, 1]])*npOccIsofloat[i, :]))
if float(npOccIso[i, 4]) == wz and npOccIso[i, 2] == 'b':
occIsoB.append(list(float(buildingSharesIsoDict[npOccIso[i, 1]])*npOccIsofloat[i, :]))
if float(npOccIso[i, 4]) == wz and npOccIso[i, 2] == 'c':
occIsoC.append(list(float(buildingSharesIsoDict[npOccIso[i, 1]])*npOccIsofloat[i, :]))
np_occA = numpy.array(occIsoA).astype(numpy.float)
np_occB = numpy.array(occIsoB).astype(numpy.float)
np_occC = numpy.array(occIsoC).astype(numpy.float)
if len(occIsoA) > 1:
occIsoA = numpy.array(numpy.sum(np_occA, axis=0))
occIsoB = numpy.array(numpy.sum(np_occB, axis=0))
occIsoC = numpy.array(numpy.sum(np_occC, axis=0))
elif len(occIsoA) == 1:
occIsoA = np_occA
occIsoB = np_occB
occIsoC = np_occC
occIsoJahrList = []
for i in range(365):
if schedule[i*96] == 'a':
occIsoJahrList.extend(float(i) for i in occIsoA)
if schedule[i*96] == 'b':
occIsoJahrList.extend(float(i) for i in occIsoB)
if schedule[i*96] == 'c':
occIsoJahrList.extend(float(i) for i in occIsoC)
occIsoJahr = numpy.array(occIsoJahrList).astype(numpy.float)
"""
Occupancy aus Iso mit reinnehmen und mit SIA vermengen
"""
occSiaList = []
for i in range(len(npOccSia)):
if float(npOccSia[i, 2]) == wz:
occSiaList.append(list(float(buildingSharesSiaDict[npOccSia[i,1]])*npOccSiafloat[i, :]))
np_occSia = numpy.array(occSiaList)
occSiaA = numpy.array(numpy.sum(np_occSia, axis= 0))
"""
Elemente von DIN Anwesenheiten ändern 1->0 und 0->1
"""
npOccDin = (1-npOccDin)
occSiaIsoA = ((factSia*occSiaA) + ((1-factSia)*occIsoA)) # Mischung aus SIA und ISO
occSiaIsoA = occSiaIsoA - ((factDin*npOccDin)*occSiaIsoA)
occIsoB = occIsoB - ((factDin*npOccDin)*occIsoB)
occIsoC = occIsoC - ((factDin*npOccDin)*occIsoC)
"""
Annahmen einbauen
"""
if wz == 47:
if ownAssumptions:
occIsoB = occSiaIsoA # AO_47.2
if wz == 6471:
occIsoB = insert_assumption(occIsoB, 8, 19, 0.3).copy() # AO_6471.1
occIsoB = insert_assumption(occIsoB, 19, 23, 0).copy()
if wz == 47:
for i in range(len(occIsoC)):
if occIsoC[i] > 0:
if ownAssumptions:
occIsoC[i] = 0 # AO_47.1
if wz == 85:
if ownAssumptions:
occIsoB = occIsoC # AO_85.1
occSiaIsoA[4*12:4*15] = numpy.clip(occSiaIsoA[4*12:4*15], 0, 0.9) # AO_85.2
if wz == 55:
if ownAssumptions:
occIsoB = occSiaIsoA # AO_55.1
occIsoC = occSiaIsoA
occSiaIsoJahrList = []
for i in range(365):
if schedule[i*96] == 'a':
occSiaIsoJahrList.extend(float(i) for i in occSiaIsoA)
if schedule[i*96] == 'b':
occSiaIsoJahrList.extend(float(i) for i in occIsoB)
if schedule[i*96] == 'c':
occSiaIsoJahrList.extend(float(i) for i in occIsoC)
occJahr = numpy.array(occSiaIsoJahrList).astype(numpy.float)
occTotal = numpy.stack((date, time, weekday, season, schedule, occJahr), axis=-1)
occModel = Model(occSiaIsoA, occIsoB, occIsoC, occJahr, occTotal)
return occModel
# In[Lighting]:
globSol = influence_transform_sol(globalSolar, 40, 20)
def model_lighting_demand(wz, occModel, factGS, anwBil):
"""
Modellierung der Gleichzeitigkeitsfaktoren der Beleuchtung aus.
- Wetter (Global Solar)
- Jahresgesamtverbrauch Strom Beleuchtung GHD aus Anwendungsbilanz/Szenario
- Wirtschaftszweig
Achtung, anwBil muss DataFrame sein, eingelesen per excel
Parameters
----------
wz : int
Ganzzahl des Wirtschaftszweigs (6471, 47, 55, 86, 85).
occModel : Model
Anwesenheitsmodell.
factGS : float
Anteil des Einflusses der Solarstrahlung auf die Beleuchtung (LambdaGS), begrenzt auf dem Intervall [0,1].
anwBil : DataFrame
Anwendungsbilanz (Bspw. 2018 oder die Szenarien für 2035).
Returns
-------
lightModel : Model
Instanz der Klasse "Model" mit Lastprofilen zur Beleuchtung [PJ].
"""
#Achtung! Standardisieren - und dann alle faktoren mit täglichem Durchschnittsverbrauch multiziplieren
anwBel = float(anwBil.loc[anwBil['WZ'] == wz, 'Beleuchtung'])
jahresBel = numpy.array([anwBel/(365*96)] * (365*96))
npLight = numpy.array(lightingIsoQuarterly).copy()
#-> devJahr
lightA = numpy.array(occModel.a).copy()
lightB = numpy.array(occModel.b).copy()
lightC = numpy.array(occModel.c).copy()
"""
Annahmen einfügen
"""
if wz == 6471:
if ownAssumptions:
lightA[4*10:4*14] = numpy.clip(lightA[4*10:4*14], 0.9, 1) # AL_6471.2
for i in range(69, 79): #17.25*4,19.75*4 #AL_6471.3
lightA[i] = lightA[i-1]-0.039 # stetige Abnahme bis 19:30 auf 0.2
for i in range(79, 93):
lightA[i] = lightA[i-1]-0.017 # stetige Abnahme bis 23h (Verkehrsflächen)
for i in range(5*4, 29):
lightA[i] = lightA[i-1]+0.029 # morgendlicher Anstieg in einigen Betrieben
if wz == 55: # AL_55.1
lightA = insert_assumption(lightA, 1, 6, 0.2).copy()
lightB = insert_assumption(lightB, 1, 6, 0.2).copy()
lightC = insert_assumption(lightC, 1, 6, 0.2).copy()
if wz == 85:
if ownAssumptions:
lightA[4*10:4*14] = numpy.clip(lightA[4*10:4*14], 0.9,1) # AL_85.1
lightA[57] = 0.8
if wz == 47:
smoothing = {1: 0.25, 2: 0.4, 3: 0.6, 4: 0.75}
for lst in [lightA, lightB, lightC]:
count = 0
for i in range(len(lst)):
if lst[i] > 0.1: # to enable effects of AL_47.1
count = count + 1
if count <= 4: # AL_47.1
lst[i] = smoothing[count]
else:
lst[i] = 1 # AL_47.2
if wz == 86: # AL_86.1
lightA = insert_assumption(lightA, 0, 6, 0.2).copy()
lightB = insert_assumption(lightA, 0, 6, 0.2).copy()
lightC = insert_assumption(lightA, 0, 6, 0.2).copy()
lightA = insert_assumption(lightA, 22, 0, 0.2).copy()
lightB = insert_assumption(lightA, 22, 0, 0.2).copy()
lightC = insert_assumption(lightA, 22, 0, 0.2).copy()
lightA[23*4:] = 0.2
lightA[:4] = 0.2