I had exact same issue, the temp fix what I did was, took open source code
from github, modified the group.id mandatory logic and built customized
library.

Thanks,

On Tue, Mar 17, 2020 at 7:34 AM Sjoerd van Leent <
sjoerd.van.le...@alliander.com> wrote:

> Dear reader,
>
>
>
> I must force the group.id of Kafka, as Kafka is under ACL control,
> however, doing so gives me the error:
>
>
>
> Kafka option 'group.id' is not supported as user-specified consumer
> groups are not used to track offsets.
>
>
>
> This won’t work, as not being able to set it, basically disqualifies using
> Spark within our organization. How can I force (Py)Spark to respect the
> group.id used?
>
>
>
> Met vriendelijke groet,
>
>
>
> *Sjoerd van Leent*
>
> Systeem Engineer | IT AST-B&R CSC
>
>
>
> *M   *+31 6 11 24 52 27
> *E *   sjoerd.van.le...@alliander.com
>
>
> *Alliander N.V.  *.  Postbus 50, 6920 AB Duiven, Nederland  .
> Locatiecode: 2PB2100  .  Utrechtseweg 68, 6812 AH Arnhem
> <https://www.google.com/maps/search/Utrechtseweg+68,+6812+AH+Arnhem?entry=gmail&source=g>
>  .  KvK 09104351 Arnhem  .  *www.alliander.com
> <http://www.alliander.com/> *
>
>
>
> De inhoud van deze e-mail, inclusief bijlagen, is persoonlijk en
> vertrouwelijk. Mocht dit bericht niet voor u bedoeld zijn, informeer dan
> per omgaande de afzender en verwijder dit bericht. Gelieve deze e-mail,
> inclusief eventuele bijlagen, niet te gebruiken, kopiëren of door te sturen
> aan derden.
>
>
>
>
>

Reply via email to