One of the major neuropsychological models of personality, developed by world-renowned psychologist Professor Jeffrey Gray, is based upon individual differences in reactions to punishing and ...rewarding stimuli. This biological theory of personality - now widely known as 'Reinforcement Sensitivity Theory' (RST) - has had a major influence on motivation, emotion and psychopathology research. In 2000, RST was substantially revised by Jeffrey Gray, together with Neil McNaughton, and this revised theory proposed three principal motivation/emotion systems: the 'Fight-Flight-Freeze System' (FFFS), the 'Behavioural Approach System' (BAS) and the 'Behavioural Inhibition System' (BIS). This is the first book to summarise the Reinforcement Sensitivity Theory of personality and bring together leading researchers in the field. It summarizes all of the pre-2000 RST research findings, explains and elaborates the implications of the 2000 theory for personality psychology and lays out the future research agenda for RST.
ZusammenfassungHintergrundOnkologen unterliegen hohen – allgemein im ärztlichen Tätigkeitsfeld und typisch in der Onkologie zutreffenden – psychischen Arbeitsbelastungen, die eine mehr oder weniger ...starke Beanspruchung bedeuten können. Krisenzeiten verstärken das Gefühl der negativen Beanspruchung. Viele Studien bestätigen den Zusammenhang zwischen Effort-Reward-Imbalance bzw. beruflichen Gratifikationskrisen im normalen Arbeitsalltag und verschiedenen Erkrankungen. Aufgrund fehlender Studiendaten war das Ziel dieser Pilotstudie, die subjektive psychische und physische Gesundheit ukrainischer Onkologen während der Krisensituationen zu ermitteln. Es soll der Frage nachgegangen werden, inwiefern Assoziationen zwischen Verausgabung, Belohnung sowie Overcommitment und der Gesundheit der Ärzteschaft gelten.MethodikAn dieser Pilotstudie nahmen 23 Onkologen (12 Männer und 11 Frauen) im Alter zwischen 26 und 72 Jahren (im Mittel 47,4 ± 12,74 Jahre) freiwillig teil. Die durchschnittliche Dauer der Berufstätigkeit lag bei 19,0 ± 11,92 Jahren. Es wurden Daten mittels des Fragebogens Effort-Reward-Imbalance (ERI) mit Fragen zum Overcommitment (OC) und des Beschwerdefragebogens (BFB) erhoben. Es erfolgte eine Einteilung zwischen Befragten mit einem normalen ERI-Ratio (≤ 1) oder hohen ERI-Ratio (> 1) für die Gruppenvergleiche der gesundheitlichen Beschwerden. Zudem erfolgte eine Korrelationsanalyse zwischen den ERI-Subskalen, OC und den BFB-Skalen.ErgebnisseDie Verteilung von Alter und Berufsjahren war über die ERI-Gruppen identisch. Bei einer Spannweite von 0,20 bis 1,76 Punkten wiesen einige Onkologen (39,1 %) eine hohe Effort-Reward-Imbalance auf. Die Gesamtstichprobe bot eine durchschnittliche Ausprägung des ERI (0,93 ± 0,40 Punkte). Bei 26,1 % (n = 6) der Gesamtstichprobe fand sich ein erhöhtes OC (> 16 Punkte), wobei 1 Proband davon auch ein ERI > 1 aufwies. Alle 6 Onkologen boten zwar mehr psychische, physische und gesamte Symptomatik im BFB an, was jedoch im Vergleich zu der Gruppe mit einem normalen ERI statistisch nicht signifikant war. Bei 39,1 % (n = 9) der Gesamtstichprobe konnten neurotische Werte im BFB nachgewiesen werden (4 Probanden mit ERI > 1). BFB-Skalen korrelierten nicht mit den ERI-Subskalen und OC.DiskussionDie Daten zeigen eine hohe Beschwerdeprävalenz (39,1 %) sowohl in der Gruppe mit normaler Effort-Reward-Imbalance (35,7 %) als auch in der Gruppe mit hoher ERI-Ratio (44,4 %). Hohen Beanspruchungen kann unterschiedlich lang entgegengewirkt werden. Daher bedarf es betrieblicher Maßnahmen zum Gesundheitserhalt, gerade auch in Krisensituationen. Hier könnte die Arbeitsmedizin in der Ukraine von einem Erfahrungsaustausch zur ganzheitlichen arbeitsmedizinischen Vorsorge mit Arbeitsmedizinern in Deutschland profitieren.
This handbook gathers the many elements of this burgeoning field and organizes them into a concise, powerful, dynamic knowledge base - theory, research, and applications. Its chapters are written by ...leading experts, including the primary developers of PBS.
With the development of deep representation learning, the domain of reinforcement learning (RL) has become a powerful learning framework now capable of learning complex policies in high dimensional ...environments. This review summarises deep reinforcement learning (DRL) algorithms and provides a taxonomy of automated driving tasks where (D)RL methods have been employed, while addressing key computational challenges in real world deployment of autonomous driving agents. It also delineates adjacent domains such as behavior cloning, imitation learning, inverse reinforcement learning that are related but are not classical RL algorithms. The role of simulators in training agents, methods to validate, test and robustify existing solutions in RL are discussed.
Functional communication training is a well‐established treatment for socially reinforced destructive behavior that typically includes differential reinforcement of the functional communication ...response (FCR) in combination with extinction of destructive behavior. However, when the schedule of reinforcement for the FCR is thinned, destructive behavior may resurge (e.g., Greer, Fisher, Saini, Owen, & Jones, 2016). Currently, data are unavailable on the prevalence and characteristics of resurgence during reinforcement schedule thinning. In this study, we evaluated the prevalence of resurgence during reinforcement schedule thinning on a per‐case and per‐schedule‐step basis and also evaluated the magnitude of resurgence in relation to the functions of destructive behavior. We observed resurgence in 19 of the 25 (76%) applications of reinforcement schedule thinning. In some cases, the magnitude of resurgence exceeded the mean levels of destructive behavior observed in baseline. We discuss these results relative to prior translational and applied research on resurgence.
Reinforcement learning (RL) is a promising data-driven approach for adaptive traffic signal control (ATSC) in complex urban traffic networks, and deep neural networks further enhance its learning ...power. However, the centralized RL is infeasible for large-scale ATSC due to the extremely high dimension of the joint action space. The multi-agent RL (MARL) overcomes the scalability issue by distributing the global control to each local RL agent, but it introduces new challenges: now, the environment becomes partially observable from the viewpoint of each local agent due to limited communication among agents. Most existing studies in MARL focus on designing efficient communication and coordination among traditional Q-learning agents. This paper presents, for the first time, a fully scalable and decentralized MARL algorithm for the state-of-the-art deep RL agent, advantage actor critic (A2C), within the context of ATSC. In particular, two methods are proposed to stabilize the learning procedure, by improving the observability and reducing the learning difficulty of each local agent. The proposed multi-agent A2C is compared against independent A2C and independent Q-learning algorithms, in both a large synthetic traffic grid and a large real-world traffic network of Monaco city, under simulated peak-hour traffic dynamics. The results demonstrate its optimality, robustness, and sample efficiency over the other state-of-the-art decentralized MARL algorithms.