Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
Maurizio Argoneto's Speaker Profile @ Sessionize
[go: Go Back, main page]

Most Active Speaker

Maurizio Argoneto

Maurizio Argoneto

DevOps Culture, IT Project Manager (Scrum Master | Senior Software Engineer)

DevOps Culture, IT Project Manager (Scrum Master | Senior Software Engineer)

Pignola, Italy

Actions

Maurizio Argoneto is the CTO of Publisys Spa, with extensive experience as a programmer specializing in Java and Python, having encountered Django along his professional journey. In addition to his technical expertise, he has a strong background as a Project Manager, leading complex and innovative projects in the tech sector.

Passionate about community management, Maurizio is the Community Manager of PLUG, a cultural association that promotes technology education and the Open Source world. He is also the co-founder of Come To Code, the largest IT event in Southern Italy, and the Lead of GDG Basilicata, where he actively contributes to the growth and support of the local tech community.

Maurizio Argoneto è il CTO di Publisys Spa, con una lunga esperienza come programmatore specializzato in Java e Python, dopo aver incontrato Django lungo il suo percorso professionale. Oltre alle competenze tecniche, ha una solida esperienza come Project Manager, guidando progetti complessi e innovativi nel settore tecnologico.

Appassionato di community management, Maurizio è il Community Manager di PLUG, un'associazione culturale che promuove la divulgazione tecnologica e il mondo Open Source. È anche co-fondatore di Come To Code, l'evento IT più grande del Sud Italia, e Lead del GDG Basilicata, dove contribuisce attivamente alla crescita e al supporto della comunità tecnologica locale.

Badges

Area of Expertise

  • Government, Social Sector & Education
  • Information & Communications Technology

Topics

  • DevOps
  • DevOps Transformation
  • Agile software development
  • Software Deveopment
  • Development
  • DevOpsCulture
  • Community Manager
  • open source communities
  • Open source and community
  • Community Management

Sessions

From Code Smells to Strategy Spells: Boosting Maintainability en

Design patterns aren’t just academic trivia—they’re practical tools to tame complexity, improve maintainability, and keep code resilient over time. In this talk, we’ll learn how to spot the moments when a pattern actually helps, using the Strategy Pattern as our hands-on example. We’ll start from a real case: managing dynamic behavior (e.g., rendering buttons based on an object’s state) that devolved into a tangle of if/else. Step by step, we’ll refactor to an elegant, scalable Strategy-based solution. You’ll see how to identify code smells that signal the need for a pattern, when not to use one, and how to keep your design flexible without over-engineering. Expect clear before/after comparisons, testable seams, and a lightweight checklist you can apply on Monday.

Il metodo Open Source: costruire e sostenere comunità attive it

Nel mondo dello sviluppo software, l'etica dell'open source—caratterizzata da collaborazione, trasparenza e coinvolgimento della comunità—ha dimostrato di essere un modello potente per l'innovazione. Ispirandosi all'opera seminale di Eric S. Raymond, "La cattedrale e il bazaar", questo intervento esplora come i principi fondamentali dell'open source possano essere adattati creativamente per migliorare la gestione delle community all'interno dei gruppi tecnologici e di sviluppatori.
Come esperto manager di community e leader di vari gruppi focalizzati sulla tecnologia, vi guiderò attraverso il percorso di applicazione delle filosofie open source all'engagement e alla leadership della community. Esamineremo l'importanza di trattare i membri della comunità come co-sviluppatori, i benefici del mantenimento di un canale di comunicazione aperto e le strategie per il miglioramento iterativo basato sul feedback collettivo.

Scaling Django Applications Seamlessly on AWS App Runner it

La scalabilità è una delle principali sfide nello sviluppo di applicazioni web moderne. Questo talk esplora come distribuire e scalare un'applicazione Django utilizzando AWS App Runner, un servizio completamente gestito che semplifica il deployment senza richiedere esperienza avanzata in infrastrutture. Attraverso un percorso pratico, scopriremo come configurare un'applicazione Django, connetterla in modo sicuro a un database Amazon RDS PostgreSQL tramite AWS Secrets Manager, e implementare una separazione efficace tra ambienti di sviluppo e produzione. Il talk fornirà anche indicazioni su come abilitare l'autoscaling per gestire il traffico in modo ottimale e garantire un'esperienza fluida agli utenti. Una guida passo passo per i developer e i DevOps che vogliono ridurre la complessità del deployment e concentrarsi sull'innovazione.

Requisiti tecnici: Familiarità con Python e Django, conoscenze base di AWS (IAM, RDS, Secrets Manager).
Durata sessione preferita: 45-50 minuti.
Pubblico target: Sviluppatori web che vogliono imparare a scalare le loro applicazioni in cloud., DevOps interessati a integrare AWS App Runner nei loro flussi di lavoro, Startup o aziende che cercano soluzioni scalabili per il deployment di applicazioni Django.
Conferenze precedenti: Primo rilascio pubblico di questo contenuto.
Formato sessione: Presentazione con dimostrazione pratica.

Taming the corporate Jungle: mastering prioritization for developers in dynamic environments it

Nel mutevole panorama dello sviluppo software, gli sviluppatori si trovano spesso a dover gestire le loro priorità in mezzo a influenze imprevedibili di vari stakeholder, dai Product Owner ai dirigenti aziendali. Questo talk utilizza la metafora di una "giungla aziendale" per illustrare l'ambiente dinamico in cui operano gli sviluppatori e enfatizza strategie pratiche di prioritizzazione per navigare queste complessità. Comprendendo i ruoli di diversi "animali aziendali" come lupi, zebre e ippopotami, gli sviluppatori impareranno come rimanere concentrati sulle loro attività, gestire le interruzioni e mantenere la produttività.

Primary Audience: Software Developers, Programmers, and Engineers

Beyond the Prompt: Design Patterns to tame LLMs en it

Prompt Engineering isn't just about "writing better questions" — it's about designing interactions with LLMs like you'd design an API: clear, reusable, and goal-oriented.

In this talk, we’ll explore a collection of Prompt Design Patterns — including Persona, Audience, Template, Recipe, and more — that help produce more relevant, structured, and reliable outputs from LLMs like ChatGPT or Gemini. Each pattern will be demonstrated with practical examples and before/after comparisons, to highlight what really works.

This talk is aimed at developers, makers, and anyone using generative models to code, create content, or automate workflows. It’s a technical yet accessible approach to turning prompt writing from an art into a repeatable technique.

Discover how to craft better prompts using real design patterns. A practical take on Prompt Engineering, made for developers and tech professionals who want to move beyond trial-and-error.

Beyond the Prompt: Design Patterns per domare gli LLM en it

Prompt Engineering non significa solo “scrivere bene le domande”, ma progettare l’interazione con un modello generativo come si progetterebbe un’API: in modo chiaro, riusabile e orientato al risultato.

In questo talk vedremo come usare una serie di Prompt Design Patterns (Persona, Audience, Template, Recipe, ecc.) per ottenere risposte più pertinenti, strutturate e prevedibili da un LLM come ChatGPT o Gemini. Ogni pattern sarà accompagnato da esempi pratici e comparazioni tra prompt efficaci e inefficaci, per mostrare chiaramente il prima e dopo.

Il talk è pensato per sviluppatori, maker e chiunque utilizzi modelli generativi per scrivere codice, generare contenuti o automatizzare processi: un approccio tecnico ma accessibile, per trasformare il prompting da arte a tecnica.

Scopri come strutturare prompt efficaci usando veri e propri design pattern. Un approccio pratico al Prompt Engineering pensato per sviluppatori, maker e professionisti che vogliono andare oltre il "prova e riprova".

Spec > Code: Human-in-the-Loop for AI-Driven Development en it

This talk blends inspiration and hands-on guidance to propose a Human-in-the-Loop approach to AI-assisted development. Starting from user stories and acceptance criteria, Amazon KIRO keeps first-class artifacts (specs, development plan, architectural decisions) and evolves them with each change, generating code and tests accordingly. In an end-to-end demo we build a Todo API (FastAPI/Django), set up CI, then apply a change request: KIRO updates specs, proposes code patches, and verifies with tests. We close with a comparison of code-first vs spec-first, common pitfalls, hardening practices, and a practical playbook for Dev/PM/QA teams.

LLMs are fast, but often leave “black boxes.” This talk shows how to keep humans in the loop and start from specifications with Amazon KIRO—from user stories and acceptance criteria to SPEC/PLAN/ARCH, code, tests, and CI. Live demo (FastAPI/Django) with an end-to-end change request.

Spec > Code: Human-in-the-Loop for AI-Driven Development en it

Questo talk unisce ispirazione e pratica per proporre un approccio Human-in-the-Loop allo sviluppo assistito da AI. Partendo da user stories e acceptance criteria, Amazon KIRO mantiene artefatti di prima classe (SPEC, piano di sviluppo, decisioni architetturali) e li evolve ad ogni change, generando codice e test coerenti. In una demo end-to-end costruiamo una Todo API (FastAPI/Django), impostiamo CI, quindi applichiamo una change request: il sistema aggiorna le specifiche, propone patch, verifica con test. Concludiamo con un confronto tra approccio code-first e spec-first, rischi comuni, best practice di hardening e un playbook operativo per team Dev/PM/QA.

Gli LLM accelerano lo sviluppo ma possono generare “zone oscure”. In questo talk mostro come tenere l’umano nel loop e partire dalle specifiche con Amazon KIRO: da user stories e acceptance criteria a SPEC/PLAN/ARCH, codice, test e CI. Demo live su microservizi (FastAPI/Django) e change request tracciata end-to-end.

Governing AI: The "Original Sin" en it

Why are Large Language Models (LLMs) so inherently fragile? The answer is not found in a passing bug, but in the "original sin" of their architecture: the lack of ontological separation between instructions and data. While traditional computing separates code from input, LLMs merge everything into a "Single Tape" flow, where any data can potentially become a system instruction.
This session explores the symptoms of this architectural confusion using the OWASP Top 10 for LLM framework. We will analyze critical risks such as Prompt Injection (LLM01), Sensitive Information Disclosure (LLM02), and Excessive Agency (LLM06).
We will demonstrate how to build "artificial barriers" to simulate the missing separation by leveraging native services from leading cloud providers.

Governare l'IA: Il "Peccato Originale" en it

Perché i Large Language Model (LLM) sono così intrinsecamente fragili? La risposta non risiede in un bug temporaneo, ma in quello che possiamo definire il "peccato originale" della loro architettura: la mancata separazione ontologica tra istruzioni e dati. A differenza dei sistemi tradizionali che separano il codice dall'input, gli LLM fondono tutto in un "Nastro Unico", rendendo un dato capace di trasformarsi in istruzione.
In questo talk esploreremo la mappa dei sintomi di questa confusione architettonica attraverso il framework OWASP Top 10 per LLM. Analizzeremo rischi critici come Prompt Injection (LLM01), Sensitive Information Disclosure (LLM02) e la pericolosa Excessive Agency (LLM06).
Vedremo come un attacco possa dirottare la logica di un sistema e, soprattutto, come costruire barriere artificiali efficaci. Vedremo come costruire "barriere artificiali" per simulare la separazione mancante utilizzando i servizi nativi dei principali cloud provider.

AI's Mirror Effect: How AI Amplifies Your Organization—For Better or Worse en it

Is AI making your team faster, or just accelerating the chaos?
In 2026, AI adoption has become nearly universal, with 90% of professionals using it daily. However, the latest research from Google Cloud’s DORA team reveals an uncomfortable truth: AI is an amplifier, not a magic bullet. It maximizes the strengths of high-performing organizations but exacerbates the dysfunctions of struggling ones—a phenomenon we call the "Mirror Effect."
In this talk, we move beyond the "individual productivity" hype to explore the systemic impact of AI on software delivery. Drawing on data from nearly 5,000 professionals, we will analyze why AI boosts throughput but can also increase software instability if not backed by proper governance.

By comparing real-world case studies, we will uncover:

- The DORA AI Capabilities Model: The 7 technical and cultural practices (from User-centricity to Internal Platforms) essential for turning AI into a competitive advantage.
- Measuring "AI Readiness": How to evaluate your organization using a practical Governance Score tool.
- A 5-Stage Transformation Roadmap: Moving from tool-based adoption to a governed, sustainable model.

AI's Mirror Effect: Come l’AI amplifica la tua organizzazione (nel bene e nel male) en it

L'AI sta rendendo il tuo team più veloce o sta solo accelerando il caos?
Nel 2026, l'adozione dell'IA è diventata pressoché universale, con il 90% dei professionisti che la utilizza quotidianamente. Tuttavia, l'ultima ricerca del team DORA di Google Cloud rivela una verità scomoda: l'AI è un amplificatore, non una soluzione magica che massimizza i punti di forza delle organizzazioni, ma esaspera le disfunzioni di quelle in difficoltà—un fenomeno che definiamo "Mirror Effect" (Effetto Specchio).
In questo talk, supereremo l'entusiasmo per la "produttività individuale" per esplorare l'impatto sistemico dell'AI sulla delivery del software. Basandoci su dati raccolti da quasi 5.000 professionisti, analizzeremo perché l'AI aumenta la velocità (throughput) ma può anche incrementare l'instabilità del software se non supportata da una corretta governance.
Attraverso il confronto tra casi studio di esempio scopriremo:
• Il DORA AI Capabilities Model: le 7 pratiche tecniche e culturali (dalla User-centricity alle Internal Platforms) indispensabili per trasformare l'AI in un vantaggio competitivo.
• Come misurare la tua "AI Readiness" attraverso uno strumento pratico del Governance Score.
• Una roadmap di trasformazione in 5 fasi per passare da un'adozione basata sui tool a un modello governato e sostenibile.

Collaborative Agentic AI development with structured governance en it

The adoption of Generative AI in software engineering has moved past "individual productivity" into the era of enterprise integration. However, this surge in throughput has shattered the traditional control perimeter: quality variance, accelerated technical debt, and an unsustainable "Review Overload" for Team Leaders have become the new normal.
In this session, we will explore the Rules–Skills–Workflows (RSW) framework, an operating model designed to address the "original sin" of GenAI: the lack of separation between instructions and data. We will see how to transform AI from a "black-box" assistant into a governed collaborator through a robust governance exoskeleton.
I will also introduce a practical solution: a tool that analyzes project context and the chosen IDE (whether Cursor, Antigravity, or others) to instantly generate a governance skeleton (the .agent/ structure). This automates the creation of passive guardrails (Rules), verified capabilities (Skills), and orchestrated procedures (Workflows), ensuring that every line of code produced is the result of a documented and approved architectural decision.

Collaborative Agentic AI development with structured governance en it

L'adozione dell'IA generativa nello sviluppo software ha superato la fase della "produttività individuale" per entrare in quella dell'integrazione aziendale. Tuttavia, questo aumento di throughput ha rotto il perimetro di controllo: varianza qualitativa, debito tecnico accelerato e un insostenibile "Review Overload" per i Team Leader sono diventati la nuova norma.
In questo talk esploreremo il framework Rules–Skills–Workflows (RSW), un modello operativo nato per risolvere il "peccato originale" della GenAI: la mancata separazione tra istruzioni e dati. Vedremo come trasformare l'IA da un assistente "black-box" a un collaboratore governato tramite un vero e proprio esoscheletro di governance.
Presenterò inoltre una soluzione pratica: un tool capace di analizzare il contesto del progetto e l'IDE scelto (che sia Cursor, Antigravity o altri) per generare istantaneamente uno skeleton di governance (struttura .agent/). Questo automatizza la creazione di guardrail passivi (Rules), capacità verificate (Skills) e procedure orchestrate (Workflows), garantendo che ogni riga di codice prodotta sia figlia di una decisione architetturale documentata e approvata.

SBOM SBAM: Who Put This in My Code? Enterprise-Grade Supply Chain Security on a Zero Budget. en it

Modern software is assembled, not just written: nearly 90% of a typical application consists of third-party libraries. If a critical vulnerability like Log4Shell were disclosed tomorrow, how long would it take your team to identify every affected microservice? While large enterprises rely on expensive "Ultimate" licenses, SMEs and independent teams often face a dangerous security gap.
In this session, we will explore how to democratize Software Supply Chain Security (SSCS) by building an automated defense perimeter at zero licensing cost. Through a Live Demo featuring a Docker-based prototype, we will walk through a real-world architecture integrating:
• GitLab Community Edition for pipeline orchestration.
• Trivy and cdxgen for automated SBOM (Software Bill of Materials) generation in CycloneDX format.
• OWASP Dependency-Track for continuous, proactive vulnerability monitoring.
We will go beyond basic scanning by demonstrating how to leverage Artificial Intelligence for code reachability analysis, generating VEX (Vulnerability Exploitability eXchange) files to silence false positives and focus only on actionable risks. We will also discuss how this stack prepares organizations for the upcoming EU Cyber Resilience Act (CRA) requirements

SBOM SBAM: Chi ha messo questo nel mio codice? Sicurezza della Supply Chain a budget zero. en it

Oggi il software viene assemblato più che scritto: circa il 90% di un'applicazione moderna è composto da librerie esterne. Se domani uscisse una vulnerabilità critica come Log4Shell, quanto tempo impieghereste a identificare ogni singolo microservizio a rischio? Mentre le grandi aziende si affidano a costose licenze "Enterprise", le PMI e i team indipendenti rischiano di restare scoperti.
In questo talk vedremo come democratizzare la Software Supply Chain Security (SSCS) costruendo un perimetro di difesa automatizzato a costo zero. Attraverso una Live Demo basata su un prototipo in Docker, esploreremo un'architettura reale che integra:
• GitLab Community Edition per l'orchestrazione delle pipeline.
• Trivy e cdxgen per la generazione automatica di SBOM (Software Bill of Materials) in formato CycloneDX.
• OWASP Dependency-Track per l'analisi continua e proattiva delle vulnerabilità.
Andremo oltre la semplice scansione: vedremo come utilizzare l'Intelligenza Artificiale per l'analisi di raggiungibilità del codice, generando file VEX per eliminare i falsi positivi e concentrarsi solo sui rischi reali. Infine, analizzeremo come questo approccio ci prepari alla conformità con il Cyber Resilience Act (CRA) dell'UE

Maurizio Argoneto

DevOps Culture, IT Project Manager (Scrum Master | Senior Software Engineer)

Pignola, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top