Automotive SPICE® in der Praxis - Interpretationshilfe für Anwender und Assessoren

von: Markus Müller, Klaus Hörmann, Lars Dittmann, Jörg Zimmer

dpunkt, 2016

ISBN: 9783864919992 , 418 Seiten

2. Auflage

Format: ePUB, PDF

Kopierschutz: Wasserzeichen

Mac OSX,Windows PC für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Apple iPod touch, iPhone und Android Smartphones

Preis: 37,99 EUR

Mehr zum Inhalt

Automotive SPICE® in der Praxis - Interpretationshilfe für Anwender und Assessoren


 

Geleitwort

5

Vorwort

7

Vorwort zur 1. Auflage

9

Zum Aufbau des Buches:

9

Inhaltsübersicht

11

Inhaltsverzeichnis

13

1 Einführung und Überblick

21

1.1 Einführung in die Thematik

21

1.2 Überblick über die in der Automobilentwicklung relevanten Modelle

22

1.3 intacsTM (International Assessor Certification Scheme)

23

Abb. 1–1 Die intacs-Assessoren- und -Instruktorenstufen

24

Abb. 1–2 Organisatorische Trennung der Definition des Ausbildungssystems von der Zertifizierung (inkl. Prüfung) der Assessoren und der Durchführung der Trainings

25

1.4 Automotive SPICE: Struktur und Bestandteile

26

Abb. 1–3 Die zwei Dimensionen von Automotive SPICE (in Anlehnung an Figure 1 und Figure 3 in [Automotive SPICE])

27

1.4.1 Die Prozessdimension

28

Abb. 1–4 Aufbau eines Prozesses in Automotive SPICE

28

1.4.2 Die Reifegraddimension

29

Abb. 1–5 Die sechs Levels

29

Abb. 1–6 Die Prozessattribute

30

1.5 Umsetzungsaspekte: Tipps für eine nachhaltige Prozessverbesserung

31

Ausreichend Zeit einplanen – Erfolgsfaktor Zeit

31

Interne Schlüsselkollegen ausreichend einbinden – Erfolgsfaktor Erfahrung

32

Beschluss zur Prozessverbesserung – Erfolgsfaktor Management

32

Umfang und Reihenfolge der Prozessverbesserung – Erfolgsfaktor Umfang

33

Abb. 1–7 Zusammenhang von Zeit und Qualität/Performance bei Prozessverbesserungen

33

Transferarbeit zu den Mitarbeitern – Erfolgsfaktor Tooling & Kommunikation

34

Feedbackmechanismus – Erfolgsfaktor Feedback

34

Nachweis des Erfolgs – Erfolgsfaktor Messgrößen

35

Aufsetzen der Prozessverbesserung – Erfolgsfaktor Change Management

35

2 Interpretationen zur Prozessdimension

37

Abb. 2–1 Automotive SPICE-Prozesse und -Prozessgruppen

38

Das V-Modell als zentrales Leitbild der technischen Prozesse

39

Abb. 2–2 Das V-Modell als zentrales Leitbild (in Anlehnung an Figure D.2 in [Automotive SPICE])

40

Im V-Modell verwendete Begriffe »Element«, »Komponente«, »Modul« und »Bestandteil«

40

Abb. 2–3 Verwendete Begriffe im V-Modell (in Anlehnung an Figure D.3 in [Automotive SPICE])

41

2.1 ACQ.4 Lieferantenmanagement

41

2.1.1 Zweck

41

2.1.2 Basispraktiken

43

Abb. 2–4 Beispielstruktur einer Offene-Punkte-Liste (OPL)

45

Erfahrungsbericht

46

Erfahrungsbericht

47

2.1.3 Ausgewählte Arbeitsprodukte

48

02-01 Vereinbarung

48

13-01 Abnahmeprotokoll

48

13-09 Besprechungsprotokoll

48

13-14 Fortschrittsstatusbericht

48

13-16 Änderungsantrag

49

13-19 Reviewaufzeichnungen

49

2.1.4 Besonderheiten Level 2

49

Zum Management der Prozessausführung

49

Zum Management der Arbeitsprodukte

49

2.2 SPL.2 Releasemanagement

49

2.2.1 Zweck

49

Exkurs: Musterphasen in der Automobilindustrie

50

2.2.2 Basispraktiken

51

2.2.3 Ausgewählte Arbeitsprodukte

56

08-16 Releaseplan

56

WP 11-03 Produktrelease-Information

56

2.2.4 Besonderheiten Level 2

57

Zum Management der Prozessausführung

57

Zum Management der Arbeitsprodukte

57

2.3 SYS.1 Anforderungserhebung

57

2.3.1 Zweck

57

2.3.2 Basispraktiken

59

2.3.3 Ausgewählte Arbeitsprodukte

64

13-21 Änderungsaufzeichnung

64

17-03 Stakeholder-Anforderungen

64

Abb. 2–5 Beispiel der Struktur eines Anforderungsdokuments in Anlehnung an [ISO/IEC/IEEE 29148]

65

2.3.4 Besonderheiten Level 2

65

Zum Management der Prozessausführung

65

Zum Management der Arbeitsprodukte

66

2.4 SYS.2 Systemanforderungsanalyse

66

2.4.1 Zweck

66

Exkurs: »System«

67

Abb. 2–6 Was ist das System?

68

Abb. 2–7 Verfeinerung von Anforderungen über die verschiedenen Ebenen

68

2.4.2 Basispraktiken

69

Abb. 2–8 Schematische Struktur der Anforderungsspezifikation

69

2.4.3 Ausgewählte Arbeitsprodukte

75

13-22 Traceability-Aufzeichnung

75

17-08 Schnittstellenanforderungen

76

17-12 Systemanforderungsspezifikation

76

2.4.4 Besonderheiten Level 2

77

Zum Management der Prozessausführung

77

Zum Management der Arbeitsprodukte

77

2.5 SYS.3 Systemarchitekturdesign

77

2.5.1 Zweck

77

Abb. 2–9 Beispiel einer statischen Systemarchitektur für ein Radio-Navigationssystem (oberste Ebene)

78

Abb. 2–10 Beispiel einer tieferen Beschreibungsebene einer statischen Systemarchitektur

78

2.5.2 Basispraktiken

79

Abb. 2–11 Beispiel Entscheidungsmatrix

82

2.5.3 Ausgewählte Arbeitsprodukte

84

04-06 Systemarchitektur

84

13-22 Traceability-Aufzeichnung

84

17-08 Schnittstellenanforderungen

84

2.5.4 Besonderheiten Level 2

85

Zum Management der Prozessausführung

85

Zum Management der Arbeitsprodukte

85

2.6 SYS.4 Systemintegration und Systemintegrationstest

85

2.6.1 Zweck

85

2.6.2 Basispraktiken

86

Abb. 2–12 Schema einer mehrstufigen Systemintegration

87

2.6.3 Ausgewählte Arbeitsprodukte

92

08-50 Testspezifikation

92

08-52 Testplan

92

11-06 System

92

13-22 Traceability-Aufzeichnung

92

13-50 Testergebnis

92

2.6.4 Besonderheiten Level 2

92

Zum Management der Prozessausführung

92

Zum Management der Arbeitsprodukte

92

2.7 SYS.5 Systemtest

93

2.7.1 Zweck

93

2.7.2 Basispraktiken

93

2.7.3 Ausgewählte Arbeitsprodukte

95

08-50 Testspezifikation

95

08-52 Testplan

95

13-50 Testergebnis

96

2.7.4 Besonderheiten Level 2

96

2.8 SWE.1 Softwareanforderungsanalyse

96

2.8.1 Zweck

96

2.8.2 Basispraktiken

97

Exkurs: Beispielmethode Hazard and Operability Study (HAZOP)

100

Abb. 2–13 Beispiel einer HAZOP-Tabelle

100

2.8.3 Ausgewählte Arbeitsprodukte

102

13-22 Traceability-Aufzeichnung

102

17-08 Schnittstellenanforderungen

102

17-11 Softwareanforderungsspezifikation

102

2.8.4 Besonderheiten Level 2

102

2.9 SWE.2 Softwarearchitekturdesign

103

2.9.1 Zweck

103

2.9.2 Basispraktiken

104

Abb. 2–14 Beispiel einer Softwarearchitektur auf oberster Beschreibungsebene (Quelle: intacs)

105

2.9.3 Ausgewählte Arbeitsprodukte

110

04-04 Softwarearchitektur

110

13-22 Traceability-Aufzeichnung

110

17-08 Schnittstellenanforderungen

110

2.9.4 Besonderheiten Level 2

110

Zum Management der Prozessausführung

110

Zum Management der Arbeitsprodukte

110

2.10 SWE.3 Softwarefeinentwurf und Softwaremodulerstellung

111

2.10.1 Zweck

111

2.10.2 Basispraktiken

113

2.10.3 Ausgewählte Arbeitsprodukte

118

04-05 Softwarefeinentwurf

118

11-05 Softwaremodul

119

13-22 Traceability-Aufzeichnung

119

2.10.4 Besonderheiten Level 2

119

Zum Management der Prozessausführung

119

Zum Management der Arbeitsprodukte

119

2.11 SWE.4 Softwaremodulverifikation

120

2.11.1 Zweck

120

Exkurs: Einheitliche Verifikations- und Teststrategie – Korrespondenz der realen Prozesse zu Automotive SPICE-Prozessen

120

2.11.2 Basispraktiken

122

2.11.3 Ausgewählte Arbeitsprodukte

127

08-50 Testspezifikation

127

08-52 Testplan

128

13-50 Testergebnis

128

13-22 Traceability-Aufzeichnung

128

13-25 Verifikationsergebnisse

128

2.11.4 Besonderheiten Level 2

128

Zum Management der Prozessausführung

128

Zum Management der Arbeitsprodukte

129

Exkurs: Testdokumentation nach ISO/IEC/IEEE 29119-3

129

2.12 SWE.5 Softwareintegration und Softwareintegrationstest

131

2.12.1 Zweck

131

2.12.2 Basispraktiken

132

Abb. 2–15 Integrationsreihenfolge bei einer Bottom-up-Strategie

133

Fallbeispiel: Softwareintegration eines Projekts bei der XY AG

139

2.12.3 Ausgewählte Arbeitsprodukte

140

01-03 Softwarebestandteil

140

01-50 Integrierte Software

140

08-50 Testspezifikation

140

08-52 Testplan

140

13-22 Traceability-Aufzeichnung

140

13-50 Testergebnis

140

17-02 Build-Liste

140

2.12.4 Besonderheiten Level 2

140

Zum Management der Prozessausführung

140

Zum Management der Arbeitsprodukte

141

2.13 SWE.6 Softwaretest

141

2.13.1 Zweck

141

2.13.2 Basispraktiken

142

Exkurs: Kurzer Überblick über Testmethoden

144

Abb. 2–16 Testmethoden und Integrationsstufen

145

Exkurs: Einige Methoden zur Ableitung von Testfällen

145

2.13.3 Ausgewählte Arbeitsprodukte

146

08-50 Testspezifikation

146

08-52 Testplan

146

13-50 Testergebnis

146

2.13.4 Besonderheiten Level 2

146

Zum Management der Prozessausführung

146

Zum Management der Arbeitsprodukte

147

2.14 SUP.1 Qualitätssicherung

147

2.14.1 Zweck

147

Generische Praktiken GP 2.2.1 und 2.2.4

147

SUP.1 Qualitätssicherung

147

SUP.2 Verifikation

147

Verifikationsaktivitäten in den Engineering-Prozessen

148

SUP.4 Gemeinsame Reviews

148

2.14.2 Basispraktiken

149

Abb. 2–17 Beispiel eines QS-Berichts an das Management: Abarbeitungsstatus von QS-Befunden und Prozesskonformitätsrate (PKR)

154

2.14.3 Ausgewählte Arbeitsprodukte

156

08-13 Qualitätssicherungsplan

156

13-07 Problemaufzeichnung

156

13-18 Qualitätsaufzeichnung

157

Abb. 2–18 Beispiel einer Qualitätsaufzeichnung (Titelseite)

157

Abb. 2–19 Schema einer Qualitätsaufzeichnung (Maßnahmenseite)

157

14-02 Liste der Korrekturaktionen

157

2.14.4 Besonderheiten Level 2

158

Zum Management der Prozessausführung

158

»Qualitätssicherung der Qualitätssicherung«

158

2.15 SUP.2 Verifikation

159

2.15.1 Zweck

159

Abb. 2–20 Überblick Qualitätssicherungmethoden

159

2.15.2 Basispraktiken

160

2.15.3 Ausgewählte Arbeitsprodukte

165

13-07 Problemaufzeichnung

165

13-25 Verifikationsergebnis

165

14-02 Liste der Korrekturaktionen

165

19-10 Verifikationsstrategie

165

2.15.4 Besonderheiten Level 2

165

Zum Management der Prozessausführung

165

Zum Management der Arbeitsprodukte

166

2.16 SUP.4 Gemeinsame Reviews

166

2.16.1 Zweck

166

2.16.2 Basispraktiken

168

Abb. 2–21 Beispiel eines Reviewprozesses

170

2.16.3 Ausgewählte Arbeitsprodukte

172

13-19 Reviewaufzeichnungen

172

Abb. 2–22 Beispielstruktur eines Review Log

173

2.16.4 Besonderheiten Level 2

173

Zum Management der Prozessausführung

173

Zum Management der Arbeitsprodukte

173

2.17 SUP.8 Konfigurationsmanagement

174

2.17.1 Zweck

174

2.17.2 Basispraktiken

175

Abb. 2–23 Auszug aus einer realen Liste von KM-Elementen

177

Abb. 2–24 Verschiedene Ebenen von Baselines

181

2.17.3 Ausgewählte Arbeitsprodukte

183

01-00 Konfigurationselement

183

08-04 Konfigurationsmanagementplan

184

13–08 Baseline

184

Abb. 2–25 Beispielgliederung eines KM-Plans

185

16-03 Konfigurationsmanagementbibliothek (auch: Konfigurationsmanagement- Repository)

185

2.17.4 Besonderheiten Level 2

186

Zum Management der Prozessausführung

186

Zum Management der Arbeitsprodukte

186

2.18 SUP.9 Problemmanagement

186

2.18.1 Zweck

186

Abb. 2–26 Beispiel für Problemstatus

188

2.18.2 Basispraktiken

188

Abb. 2–27 Beispiel einer Problem- oder Änderungsmeldung

191

Abb. 2–28 Beispiel eines Problemklassifizierungsschemas

192

Abb. 2–29 Beispiel für Problem- und Abarbeitungsverfolgung über die Zeit

195

2.18.3 Ausgewählte Arbeitsprodukte

196

08-27 Problemmanagementplan

196

13-07 Problemaufzeichnung

196

15-01 Analysebericht bzw. 15-05 Bewertungsbericht

197

15-12 Problemstatusbericht

197

2.18.4 Besonderheiten Level 2

197

Zum Management der Prozessausführung

197

Zum Management der Arbeitsprodukte

198

2.19 SUP.10 Änderungsmanagement

199

2.19.1 Zweck

199

2.19.2 Basispraktiken

200

Abb. 2–30 Beispiel für den Status von Änderungsanträgen

201

2.19.3 Ausgewählte Arbeitsprodukte

204

08-28 Änderungsmanagementplan

204

13-16 Änderungsantrag

204

13-21 Änderungsaufzeichnung

204

2.19.4 Besonderheiten Level 2

205

2.20 MAN.3 Projektmanagement

205

2.20.1 Zweck

205

2.20.2 Basispraktiken

206

Abb. 2–31 Beispiel: Auszug aus der Funktionsliste eines Spurhalteassistenzsystems

208

Exkurs: Verteilte Funktionsentwicklung und Integrationsstufen

209

Abb. 2–32 Beispiel für einen Projektlebenszyklus eines Steuergeräteentwicklungsprojekts

210

BP 5: Ermittle, überwache und passe die Projektschätzungen und Ressourcen an. Definiere und pflege die Aufwands- und Ressourcenschätzungen basierend auf den Projektzielen, Projektrisiken, Motivation und Grenzen und passe diese an.

213

Abb. 2–33 Beispiel für technische Ressourcenplanung

214

Abb. 2–34 Prinzip der rollierenden Planung

217

Abb. 2–35 Arten von Projektbesprechungen und Fortschrittreviews

220

2.20.3 Ausgewählte Arbeitsprodukte

221

08-12 Projektplan

221

Beispielgliederung eines Projektplans für ein großes Projekt

222

13-16 Änderungsantrag

223

14-06 Terminplan

223

14-09 Projektstrukturplan

223

15-06 Projektfortschrittsbericht

224

Abb. 2–36 Beispiel eines aggregierten Projektfortschrittsberichts für höhere Managementebenen

224

2.20.4 Besonderheiten Level 2

225

Zum Management der Prozessausführung

225

Zum Management der Arbeitsprodukte

225

2.21 MAN.5 Risikomanagement

225

2.21.1 Zweck

225

2.21.2 Basispraktiken

227

Abb. 2–37 Überblick Risikomanagementaktivitäten

230

Abb. 2–38 Beispiel einer Risikoportfoliodarstellung

231

Abb. 2–39 Beispiel von Schadensklassen für terminliche Auswirkungen

231

2.21.3 Ausgewählte Arbeitsprodukte

234

Risikoliste

234

Beispielhafter Aufbau einer Risikoliste

234

2.21.4 Besonderheiten Level 2

235

Zum Management der Prozessausführung

235

Zum Management der Arbeitsprodukte

235

2.22 MAN.6 Messen

235

2.22.1 Zweck

235

»You can’t control, what you can’t measure!« (Tom DeMarco)

235

Exkurs: Goal/Question/Metric-(GQM-)Methode

236

Abb. 2–40 GQM-Methode

237

2.22.2 Basispraktiken

238

Abb. 2–41 Beispiel einer grafischen Auswertung zur Metrik »Funktionalitätszuwachs«

242

Abb. 2–42 Beispiel eines Projekt-Cockpit-Charts (Quelle: [Hörmann et al. 2006])

243

2.22.3 Ausgewählte Arbeitsprodukte

245

03-03 Benchmarking-Daten

245

03-04 Kundenzufriedenheitsdaten

246

Beispiel einer Metrikspezifikation

246

Abb. 2–43 Spezifikation der Metrik »Funktionalitätszuwachs«

247

07-01 Kundenzufriedenheitsbefragung

248

07-02 Feldbeobachtung

248

07-08 Service-Level-Messung

248

2.22.4 Besonderheiten Level 2

248

Zum Management der Prozessausführung

248

Zum Management der Arbeitsprodukte

248

2.23 PIM.3 Prozessverbesserung

249

2.23.1 Zweck

249

2.23.2 Basispraktiken

250

Abb. 2–44 Anwendung der Scrum-Methode auf das Change Management in der Organisation (Quelle: Kugler Maag Cie)

255

Abb. 2–45 Prozessarchitektur und Tailoring in größeren, verteilten Organisationen

256

2.23.3 Ausgewählte Arbeitsprodukte

257

08-29 Verbesserungsplan

257

15-16 Verbesserungsmöglichkeit

257

2.23.4 Besonderheiten Level 2

257

Zum Management der Prozessausführung

257

Zum Management der Arbeitsprodukte

257

2.24 REU.2 Wiederverwendungsmanagement

258

2.24.1 Zweck

258

2.24.2 Basispraktiken

259

2.24.3 Ausgewählte Arbeitsprodukte

263

08-17 Wiederverwendungsplan

263

15-07 Bericht zur Bewertung der Wiederverwendung

264

2.24.4 Besonderheiten Level 2

264

Zum Management der Prozessausführung

264

Zum Management der Arbeitsprodukte

264

2.25 Traceability und Konsistenz in Automotive SPICE

265

2.25.1 Einleitung

265

2.25.2 Grundgedanken

265

Abb. 2–46 Horizontale und vertikale Traceability

266

2.26 Applikationsparameter in Automotive SPICE

271

Abb. 2–47 ISO-26262-Sicht auf Parameter (Quelle: ISO 26262-6, Annex C)

271

2.26.1 Ausgewählte Arbeitsprodukte

274

WP 01-51 Applikationsparameter

274

3 Interpretationen zur Reifegraddimension

275

3.1 Struktur der Reifegraddimension

275

3.1.1 Levels und Prozessattribute

275

3.1.2 Indikatoren für die Reifegraddimension

276

Abb. 3–1 Elemente der Reifegraddimension

277

3.2 Wie werden Levels gemessen?

277

Abb. 3–2 Ermittlung des Levels mithilfe des »process capability level model«

279

3.3 Erweiterungen der ISO/IEC 33020

279

Abb. 3–3 Veranschaulichung der Bewertungsmethode R1

281

Abb. 3–4 Veranschaulichung der Bewertungsmethoden R2 und R3

281

Abb. 3–5 Vertikale Aggregation

282

3.4 Die Levels

283

3.4.1 Level 0 (»Unvollständiger Prozess«)

283

3.4.2 Level 1 (»Durchgeführter Prozess«)

283

Prozessausführung (PA 1.1)

283

Abb. 3–6 Beurteilung von PA 1.1

284

Abb. 3–7 Bewertungsbeispiele für PA 1.1

285

3.4.3 Level 2 (»Gemanagter Prozess«)

286

Abb. 3–8 Prozessattribute und generische Praktiken von Level 2

287

PA 2.1 Management der Prozessausführung

287

GP 2.1.1: Ermittle die Ziele für die Prozessausführung.

288

Abb. 3–9 Kommunikationsplan

296

PA 2.2 Management der Arbeitsprodukte

297

GP 2.2.2: Definiere Anforderungen an die Dokumentation und Lenkung von Arbeitsprodukten. Anforderungen an die Dokumentation und Lenkung von Arbeitsprodukten werden definiert. Diese können beinhalten:

299

3.4.4 Level 3 (»Etablierter Prozess«)

302

Abb. 3–10 Prozessattribute und generische Praktiken von Level 3

303

PA 3.1 Prozessdefinition

304

Abb. 3–11 Prozessarchitektur nach dem EITVOX-Modell

305

Exkurs: Tailoring von Prozessen

306

Abb. 3–12 Tailoring-Tabelle

307

Abb. 3–13 Beispiel für Rollenbeschreibung Softwareprojektleiter

310

PA 3.2 Prozessanwendung

313

GP 3.2.1: Setze einen definierten Prozess um, der die kontextspezifischen Anforderungen bezüglich der Nutzung des Standardprozesses erfüllt. Der definierte Prozess wird adäquat ausgewählt und/oder aus dem Standardprozess zurechtgeschnitten. Die K...

314

3.4.5 Level 4 (»Vorhersagbarer Prozess«)

318

Abb. 3–14 Level 4 – vorhersagbares Prozessverhalten

319

Abb. 3–15 Prozessattribute und generische Praktiken von Level 4

320

3.4.6 Level 5 (»Innovativer Prozess«)

321

Abb. 3–16 Level 5 – quantitative Prozessoptimierung

321

Abb. 3–17 Prozessattribute und generische Praktiken von Level 5

323

3.5 Zusammenhang von Prozess- und Reifegraddimension

323

Abb. 3–18 Abhängigkeiten zwischen Prozessen und Prozessattributen

324

4 Automotive SPICE-Assessments

325

4.1 Assessments – Überblick und Grundlagen

325

4.2 Phasen, Aktivitäten und Dauer des Assessmentprozesses

326

Abb. 4–1 Überblick über Phasen und Aktivitäten des Assessmentprozesses

326

Assessmentvorbereitung

327

Assessmentdurchführung

327

Assessmentabschluss

328

Wie lange dauert ein Assessment?

329

4.3 Rollen im Assessmentprozess

329

4.4 Komplexe Assessments

330

Abb. 4–2 Von intacs definiertes OMM für Automotive SPICE

331

Abb. 4–3 Anforderungen an die Maturity Levels in Form von geforderten Capability Levels für bestimmte Prozessmengen

332

Wie werden die zu untersuchenden Projekte ausgewählt?

332

Abb. 4–4 Definition der Assessmentklassen

333

Werden OMAs anerkannt?

334

5 Funktionale Sicherheit und Automotive SPICE

335

5.1 Überblick funktionale Sicherheit und ISO 26262

335

IEC 61508

336

ISO 26262

336

Abb. 5–1 Sicherheitslebenszyklus der ISO 26262

336

Abb. 5–2 ISO 26262-Überblick [ISO 26262]

337

ASIL

338

ISO/IEC 15504-10

338

5.2 Vergleich von ISO 26262 und Automotive SPICE

339

Abb. 5–3 Überlappung von Automotive SPICE und ISO 26262

339

5.3 Unterschiede zwischen ISO 26262 und Automotive SPICE

340

5.3.1 Unterschiede im Scope der Standards

340

5.3.2 Unterschiede in den Levels

341

Abb. 5–4 Unterstützung der ISO-26262-Umsetzung durch Automotive SPICE

342

5.3.3 Unterschiede in den Aktivitäten und Rollen

342

5.3.4 Unterschiede in den Arbeitsprodukten

343

5.3.5 Unterschiede in den Methodenanforderungen

343

Abb. 5–5 Beispiel einer Methodentabelle der ISO 26262 (Auszug aus der [ISO 26262], Teil 4, Tabelle 3)

344

5.3.6 Unterschiede in den Unabhängigkeitsanforderungen

344

5.4 Kombination von Automotive SPICE-Assessments und funktionalen Safety-Audits

345

Abb. 5–6 Überlappung der Evaluierungsmethoden (Quelle [Dold et al. 2014])

346

5.4.1 Kombination von Automotive SPICE-Assessment und Safety-Audit

346

Abb. 5–7 Überlappung von Automotive SPICE-Assessment und Safety-Audit im Detail (Quelle [Dold et al. 2014])

347

Abb. 5–8 Kombinierte Methode Automotive SPICE-Assessment und Safety-Audit (Quelle [Dold et al. 2014])

347

5.4.2 Weitere zu beachtende Aspekte

348

Teamzusammensetzung

348

Modellergänzungen

348

Abb. 5–9 Beispiel für FS-Ergänzungen

348

Abb. 5–10 Evaluierungen entlang des Sicherheitslebenszyklus

349

5.5 Zusammenfassung ISO 26262 und Automotive SPICE

350

6 Agilität und Automotive SPICE

351

6.1 Warum sich mit Agilität und Automotive SPICE beschäftigen?

352

Beispiele aus der Automobilindustrie

353

6.2 Was bedeutet »Agilität in Automotive« ?

354

Abb. 6–1 Übersicht und Klassifizierung von »agilen« Begriffen

355

6.2.1 Was macht eine agile Entwicklung aus?

355

Die 12 Prinzipien agiler Softwareentwicklung

356

6.2.2 »Agile in Automotive (AiA)«: Welche agilen Methoden und Praktiken werden in der Automobilentwicklung aktuell eingesetzt?

357

Domänen und eingesetzte Methoden

357

Disziplinen und Projektphasen

357

Häufige Integration

358

Sprint-Dauer, Sprint-Umfang

358

AiA-Team-Setup

358

Retrospektiven und Demos

359

User Stories

359

Agile Skalierung

359

6.2.3 Welche Herausforderungen werden demnächst angegangen ?

360

Exkurs: Continuous Integration

360

Abb. 6–2 Ablauf von Continuous Integration

361

6.3 Wie bringt man Agilität und Automotive SPICE zusammen?

362

6.3.1 Grundsätzliches

362

Mögliches Mapping

362

Abb. 6–3 Abdeckung des HIS Scope Level 1 durch typische agile Praktiken

363

6.3.2 Was sind die kritischen Punkte in der Praxis?

363

Generell: Die Implementierung der Automotive SPICE-Arbeitsprodukte

364

Abb. 6–4 Beispiel einer agilen Entwicklungsumgebung

365

Agile Vorausplanung und Automotive SPICE

365

Einbettung agiler Teams in das Gesamtprojekt

365

Abb. 6–5 Schnittstellen der Planungswerkzeuge zur Projektverfolgung

366

Qualitätssicherung

366

Anforderungsmanagement und Traceability

367

Softwarearchitektur

368

Continuous Integration und Test

369

Unterstützende Prozesse

369

Einbindung weiterer Disziplinen

369

Abb. 6–6 Synchronisation und Integrationsebenen unterschiedlicher Zyklenlängen

370

6.3.3 Konkrete praktische Lösungsbeispiele

370

Definition of Done (DoD)

371

Abb. 6–7 Auszüge aus einer DoD auf Teamebene

371

Agile Vorausplanung und Automotive SPICE

372

Abb. 6–8 Product Backlog mit verschiedenen Planungsebenen

372

Continuous Integration und Testebenen

373

Abb. 6–9 Continuous Integration und automatisierte Testebenen

374

6.4 Agilität, Automotive SPICE und funktionale Sicherheit

375

6.5 Zusammenfassung Agilität und Automotive SPICE

376

Anhang

377

A Beispiele zu Assessmentplanung und Assessmentdokumentation

379

A.1 Fall 1: Einfaches Projektassessment Tier-1-Lieferant

379

A.1.1 Beispiel eines Assessmentplans

379

Allgemeine Angaben zum Assessment

379

A.1.2 Beispiel einer Assessmentagenda bis Level 3

381

Abb. A–1 Beispielagenda

382

A.1.3 Beispielstruktur eines Assessmentberichts

383

A.1.4 Beispielbewertung eines Prozesses inklusive Dokumentation

383

Bewertung der Indikatoren und Beschreibung der Evidenzen

383

Abb. A–2 Beispielbewertung

384

A.1.5 Beispiel: Auszug aus der Liste der analysierten Evidenzen/Dokumente

385

A.2 Fall 2: Komplexes Projektassessment, mehrere Instanzen

385

A.2.1 Beispiel: Planung der Prozessinstanzen pro Prozess

386

Abb. A–3 Assessmentplanung und Abdeckung eines komplexen Assessments

387

A.2.2 Beispiel: Assessmentagenda

388

Abb. A–4 Auszug aus Agenda eines komplexen Assessments

388

A.2.3 Beispiel: Konsolidierungs- und Aggregationsregeln

389

B Übersicht ausgewählter Arbeitsprodukte

391

C Glossar

393

D Abkürzungsverzeichnis

405

E Literatur, Normen und Webadressen

409

Index

413

www.dpunkt.de

0