public class Print {
public static void main (String arg[])
{
for(int i=0;i<16;i++)
{
for(int j=0;j<16;j++)
{
if(i<8)
{
if(j<=i||j>=15-i)
{
System.out.print("*"); }
else
System.out.print(" ");
}
else
{
if(j<15-i||j>i)
System.out.print("*");
else
System.out.print(" "); } }
System.out.println();
}
}
}
相关文章
- 11-15高级java每日一道面试题-2024年11月07日-Redis篇-Redis有哪些功能?-我回答:
- 11-15Java开发人员学习ArkTs笔记(一)-基本知识-2.类型
- 11-155.Java 数组(一维数组、二维数组、数组实例实操)-一、数组
- 11-15后端java——如何为你的网页设置一个验证码
- 11-15【Java语言】继承和多态(一)
- 11-15【flink】之kafka到kafka-2.配置Kafka数据源: Properties properties = new Properties; properties.setProperty("bootstrap.servers", "your_kafka_broker:9092"); properties.setProperty("group.id", "flink_consumer_group"); FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<>( "source_topic", // Kafka source topic new SimpleStringSchema, // 数据反序列化方式 properties ); DataStream<String> kafkaStream = env.addSource(kafkaConsumer); 3.数据处理(可选): DataStream<String> processedStream = kafkaStream.map(value -> value.toUpperCase); 4.配置Kafka数据目标: FlinkKafkaProducer<String> kafkaProducer = new FlinkKafkaProducer<>( "target_topic", // Kafka target topic new SimpleStringSchema, // 数据序列化方式 properties, FlinkKafkaProducer.Semantic.EXACTLY_ONCE_SEMANTICS // 确保数据精确一次处理(可选) ); 5.将数据写入Kafka: processedStream.addSink(kafkaProducer); 6.启动Flink作业: 将上述代码整合到一个Java类中,并在main方法中启动Flink执行环境: public class FlinkKafkaToKafka { public static void main(String args) throws Exception { // 创建Flink执行环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment; env.setParallelism(1); // 配置Kafka数据源 Properties properties = new Properties; properties.setProperty("bootstrap.servers", "your_kafka_broker:9092"); properties.setProperty("group.id", "flink_consumer_group"); FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<>( "source_topic", new SimpleStringSchema, properties ); DataStream<String> kafkaStream = env.addSource(kafkaConsumer); // 数据处理(可选) DataStream<String> processedStream = kafkaStream.map(value -> value.toUpperCase); // 配置Kafka数据目标 FlinkKafkaProducer<String> kafkaProducer = new FlinkKafkaProducer<>( "target_topic", new SimpleStringSchema, properties, FlinkKafkaProducer.Semantic.EXACTLY_ONCE_SEMANTICS ); // 将数据写入Kafka processedStream.addSink(kafkaProducer); // 启动Flink作业 env.execute("Flink Kafka to Kafka Job"); } } 五、运行与验证
- 11-15基于SSM+VUE电影网站视频网站JAVA|VUE|Springboot计算机毕业设计源代码+数据库+LW文档+开题报告+答辩稿+部署教+代码讲解-一、开发工具、运行环境、开发技术
- 11-15一文深度学习java内存马
- 11-15高级java每日一道面试题-2024年10月24日-JVM篇-说一下JVM有哪些垃圾回收器?-我回答:
- 11-15介绍一款Java开发的企业接口管理系统和开放平台